我在AWS上的DC / OS(Mesos)集群上安装了Kafka。启用了三个代理并创建了一个名为“topic1”的主题。
dcos kafka topic create topic1 --partitions 3 --replication 3
然后我编写了一个Producer类来发送消息,并编写了一个Consumer类来接收它们。
public class Producer {
public static void sendMessage(String msg) throws InterruptedException, ExecutionException {
Map<String, Object> producerConfig = new HashMap<>();
System.out.println("setting Producerconfig.");
producerConfig.put("bootstrap.servers",
"172.16.20.207:9946,172.16.20.234:9125,172.16.20.36:9636");
ByteArraySerializer serializer = new ByteArraySerializer();
System.out.println("Creating KafkaProcuder");
KafkaProducer<byte[], byte[]> kafkaProducer = new KafkaProducer<>(producerConfig, serializer, serializer);
for (int i = 0; i < 100; i++) {
String msgstr = msg + i;
byte[] message = msgstr.getBytes();
ProducerRecord<byte[], byte[]> record = new ProducerRecord<>("topic1", message);
System.out.println("Sent:" + msgstr);
kafkaProducer.send(record);
}
kafkaProducer.close();
}
public static void main(String[] args) throws InterruptedException, ExecutionException {
sendMessage("Kafka test message 2/27 3:32");
}
}
public class Consumer {
public static String getMessage() {
Map<String, Object> consumerConfig = new HashMap<>();
consumerConfig.put("bootstrap.servers",
"172.16.20.207:9946,172.16.20.234:9125,172.16.20.36:9636");
consumerConfig.put("group.id", "dj-group");
consumerConfig.put("enable.auto.commit", "true");
consumerConfig.put("auto.offset.reset", "earliest");
ByteArrayDeserializer deserializer = new ByteArrayDeserializer();
KafkaConsumer<byte[], byte[]> kafkaConsumer = new KafkaConsumer<>(consumerConfig, deserializer, deserializer);
kafkaConsumer.subscribe(Arrays.asList("topic1"));
while (true) {
ConsumerRecords<byte[], byte[]> records = kafkaConsumer.poll(100);
System.out.println(records.count() + " of records received.");
for (ConsumerRecord<byte[], byte[]> record : records) {
System.out.println(Arrays.toString(record.value()));
}
}
}
public static void main(String[] args) {
getMessage();
}
}
首先,我在群集上运行Producer
,向topic1
发送消息。然而,当我跑Consumer
时,它无法接收任何东西,只是挂起。
Producer
正在工作,因为我能够通过运行Kafka安装附带的shell脚本来获取所有消息
./bin/kafka-console-consumer.sh --zookeeper master.mesos:2181/dcos-service-kafka --topic topic1 --from-beginning
但为什么我不能用Consumer
收到?这个post建议group.id与旧偏移可能是一个可能的原因。我只在消费者中创建group.id而不是生产者。如何为此组配置偏移量?
事实证明,kafkaConsumer.subscribe(Arrays.asList("topic1"));
导致poll()
挂起。根据Kafka Consumer does not receive messages
,有两种方法可以连接到一个主题,assign
和subscribe
。在用下面的线替换subscribe
后,它开始工作了。
TopicPartition tp = new TopicPartition("topic1", 0);
List<TopicPartition> tps = Arrays.asList(tp);
kafkaConsumer.assign(tps);
但是输出显示了不期望的数字数组(生产者发送了字符串)。但我想这是一个单独的问题。
确保优雅地关闭您的消费者:
consumer.close()
TLDR
当您有两个使用相同组ID的消费者时,Kafka不会将您主题的相同分区分配给两者。
如果您反复运行一个应用程序来旋转具有相同组ID的消费者并且您没有优雅地关闭它们,那么Kafka将需要一段时间来考虑来自早期运行的消费者,并将其分区重新分配给新分区。
如果新消息到达该分区并且从未分配给您的新消费者,则消费者将永远不会看到消息。
要调试:
./kafka-topics --zookeeper <host-port> --describe <topic>
./kafka-consumer-groups --bootstrap-server <host-port> --describe --group <group-id>
如果您的分区已经过时陈旧的消费者,请擦除Kafka的状态或使用新的组ID。