现在我的flink代码正在处理一个文件并使用1分区将kafka主题上的数据下沉。
现在我有一个带有2分区的主题,我希望flink代码使用DefaultPartitioner在这两个分区上接收数据。
你能帮帮我吗?
这是我当前代码的代码片段:
DataStream<String> speStream = inputStream..map(new MapFunction<Row, String>(){....}
Properties props = Producer.getProducerConfig(propertiesFilePath);
speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName, new KeyedSerializationSchemaWrapper<>(new SimpleStringSchema()), props, FlinkKafkaProducer011.Semantic.EXACTLY_ONCE));
通过将flinkproducer改为来解决这个问题
speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName,new SimpleStringSchema(),
props));
早些时候我正在使用
speStream.addSink(new FlinkKafkaProducer011(kafkaTopicName,
new KeyedSerializationSchemaWrapper<>(new SimpleStringSchema()), props,
FlinkKafkaProducer011.Semantic.EXACTLY_ONCE));