我们需要使用JDBC Connector从RDBMS读取数据,然后在将数据推送到Kafka之前使用我们的自定义加密。并在解决方案中解密数据,然后将其推送到后续接收器。
为此,我们是否需要提供以下的自定义实现(JDBC Connector Properties的一部分):
"key.converter": "io.confluent.connect.avro.AvroConverter", ==>"key.converter": "OurCustomeAvroConverter"
要么
我们是否需要提供以下的自定义实现(生产者配置属性的一部分):
key.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer ==> key.serializer = Custom Implementation
如果它是key.serializer
那么我们如何设置此属性以便JDBC连接器可以选择它?
谢谢,
如果您使用Kafka连接JDBC连接器将数据从DBMS推送到kafka,官方Kafka连接文档说使用key.convertor和value.convertor属性。