如何将JDBC连接器与自定义加密一起使用

问题描述 投票:0回答:1

我们需要使用JDBC Connector从RDBMS读取数据,然后在将数据推送到Kafka之前使用我们的自定义加密。并在解决方案中解密数据,然后将其推送到后续接收器。

为此,我们是否需要提供以下的自定义实现(JDBC Connector Properties的一部分):

"key.converter": "io.confluent.connect.avro.AvroConverter",    ==>"key.converter": "OurCustomeAvroConverter"

要么

我们是否需要提供以下的自定义实现(生产者配置属性的一部分):

key.serializer = class org.apache.kafka.common.serialization.ByteArraySerializer ==> key.serializer = Custom Implementation

如果它是key.serializer那么我们如何设置此属性以便JDBC连接器可以选择它?

谢谢,

apache-kafka apache-kafka-connect confluent confluent-schema-registry
1个回答
1
投票

如果您使用Kafka连接JDBC连接器将数据从DBMS推送到kafka,官方Kafka连接文档说使用key.convertor和value.convertor属性。

https://docs.confluent.io/current/connect/userguide.html

© www.soinside.com 2019 - 2024. All rights reserved.