我们需要使用 JDBC 连接器从 RDBMS 读取数据,然后在将数据推送到 Kafka 之前使用我们的自定义加密。并在出路时解密数据,然后将其推送到后续接收器。
为此,我们是否需要提供以下自定义实现(JDBC 连接器属性的一部分(:
"key.converter": "io.confluent.connect.avro.AvroConverter", ==>"key.converter": "OurCustomeAvroConverter"
或
我们是否需要提供以下自定义实现(生产者配置属性的一部分(:
key.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer ==> key.serializer = Custom Implementation
如果是key.serializer
那么我们如何设置此属性,以便 JDBC 连接器可以选择它?
谢谢
JDBC 连接器将数据从 DBMS 推送到 kafka,官方 Kafka connect 文档说要使用 key.convertor 和 value.convertor 属性。
https://docs.confluent.io/current/connect/userguide.html