kafka-connect以分布式模式返回409

问题描述 投票:1回答:2

我正在运行kafka-connect分布式设置。

我正在测试一个机器/进程设置(仍处于分布式模式),工作正常,现在我正在使用3个节点(和3个连接进程),日志不包含错误,但是当我提交s3连接器时通过rest-api请求,它返回:{"error_code":409,"message":"Cannot complete request because of a conflicting operation (e.g. worker rebalance)"}

当我在其中一个节点上停止kafka-connect进程时,我实际上可以提交作业,一切运行正常。

我的群集中有3个代理,主题的分区号是32。

这是我试图启动的连接器:

{
    "name": "s3-sink-new-2",
    "config": {
        "connector.class": "io.confluent.connect.s3.S3SinkConnector",
        "tasks.max": "32",
        "topics": "rawEventsWithoutAttribution5",
        "s3.region": "us-east-1",
        "s3.bucket.name": "dy-raw-collection",
        "s3.part.size": "64000000",
        "flush.size": "10000",
        "storage.class": "io.confluent.connect.s3.storage.S3Storage",
        "format.class": "io.confluent.connect.s3.format.avro.AvroFormat",
        "schema.generator.class": "io.confluent.connect.storage.hive.schema.DefaultSchemaGenerator",
        "partitioner.class": "io.confluent.connect.storage.partitioner.TimeBasedPartitioner",
        "partition.duration.ms": "60000",
        "path.format": "\'year\'=YYYY/\'month\'=MM/\'day\'=dd/\'hour\'=HH",
        "locale": "US",
        "timezone": "GMT",
        "timestamp.extractor": "RecordField",
        "timestamp.field": "procTimestamp",
        "name": "s3-sink-new-2"
    }
}

日志中没有任何内容表明存在问题,我真的迷失在这里。

apache-kafka apache-kafka-connect confluent
2个回答
© www.soinside.com 2019 - 2024. All rights reserved.