如何从Kafka S3接收器连接器使用FieldPartitioner创建分区

问题描述 投票:0回答:1

我正在使用partition.class s3-sink.properties寻找适用于Kafka S3接收器连接器FieldPartitioner的正确format。我需要根据我的kafka消息中的字段名称创建3个分区(另一个分区,例如field1 = value / field2 = value / field3 = value)。

我真的需要一个示例来说明partition.field.name

的用法。它收到一个list,但我找不到一个示例。

这是我到目前为止所拥有的,也是我所需要的:

storage.class=io.confluent.connect.s3.storage.S3Storage
format.class=io.confluent.connect.s3.format.parquet.ParquetFormat
schema.generator.class=io.confluent.connect.storage.hive.schema.DefaultSchemaGenerator
schema.compatibility=NONE
partitioner.class=io.confluent.connect.storage.partitioner.FieldPartitioner
partition.field.name=fieldName #Wrong so far, it can't even find my first one with this format. And I need two more, like: partition.field.name=field1,field2,field3

谢谢。

我正在使用partition.class FieldPartitioner寻找适用于Kafka S3 Sink连接器的s3-sink.properties的正确格式。我需要创建3个分区(...的一个子分区……)>>

接收列表

这是顶层

字段名称的CSV列表(就像bootstrap.servers一样)。

并且您的数据必须是结构(Avro或带有schema.enabled=true的JSON)

amazon-s3 apache-kafka apache-kafka-connect confluent
1个回答
0
投票

接收列表

© www.soinside.com 2019 - 2024. All rights reserved.