confluent Bigquery connector v2.5不分配分区是什么原因?

问题描述 投票:0回答:0

我从合流的 Bigquery 接收器连接器 v2.5 中得到以下错误:

WARN [debezium-connector-bigquery|task-0] WorkerSinkTask{id=debezium-connector-bigquery-0} 忽略无效任务 提供的偏移量——未分配分区

我在 kafka 中为每个主题设置了 8 个默认分区。我在 Bigquery 连接器配置中将

tasks.max
设置为 10。分区应该匹配 tasks.max 吗?

我假设

tasks.max
适用于所有主题。我应该将 tasks.max 值增加到 10 以上吗?我知道 10 是默认值。我目前有大约 12 个主题。

我将

tasks.max
值更改为 24(8 的倍数)和 8,错误并没有消失。我希望这能解决问题。

apache-kafka google-bigquery apache-kafka-connect
© www.soinside.com 2019 - 2024. All rights reserved.