我在 Kubernetes 上运行 Kafka Connect(8-16 个节点,自动扩展)。我总共定义了 44 个连接器,每个 Kafka 主题一个(每个主题一个分区)。这些主题由Debezium/Postgresql产生。有 3 个 Kafka 节点。每个连接器都有任务.max设置为 4。我的大多数连接器(但不是每个!)都有一个(总是一个)失败的任务,由于java.lang.IllegalStateException:分区-0的当前没有分配。
这里不是卡夫卡专家,请注意;)我假设有 3 个 Kafka 节点,所以 3 个工作线程做得很好,而第 4 个任务没有可连接的内容,所以它失败了。但是为什么有时有 4 个任务运行良好?
此外,我经常遇到"由于重新平衡而导致操作冲突"的问题,这可能会持续几分钟甚至几小时。最近我删除了所有 pod,它们重新启动了自己,问题消失了,但这不是长期解决方案。
任务是什么.max推荐值?提前感谢!
例外:
java.lang.IllegalStateException: No current assignment for partition table-0
at org.apache.kafka.clients.consumer.internals.SubscriptionState.assignedState(SubscriptionState.java:259)
at org.apache.kafka.clients.consumer.internals.SubscriptionState.seek(SubscriptionState.java:264)
at org.apache.kafka.clients.consumer.KafkaConsumer.seek(KafkaConsumer.java:1501)
at org.apache.kafka.connect.runtime.WorkerSinkTask.rewind(WorkerSinkTask.java:601)
at org.apache.kafka.connect.runtime.WorkerSinkTask.access$1200(WorkerSinkTask.java:70)
at org.apache.kafka.connect.runtime.WorkerSinkTask$HandleRebalance.onPartitionsAssigned(WorkerSinkTask.java:675)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.onJoinComplete(ConsumerCoordinator.java:291)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator.joinGroupIfNeeded(AbstractCoordinator.java:406)
at org.apache.kafka.clients.consumer.internals.AbstractCoordinator.ensureActiveGroup(AbstractCoordinator.java:340)
at org.apache.kafka.clients.consumer.internals.ConsumerCoordinator.poll(ConsumerCoordinator.java:341)
at org.apache.kafka.clients.consumer.KafkaConsumer.updateAssignmentMetadataIfNeeded(KafkaConsumer.java:1214)
at org.apache.kafka.clients.consumer.KafkaConsumer.poll(KafkaConsumer.java:1179)
at org.apache.kafka.clients.consumer.KafkaConsumer.poll(KafkaConsumer.java:1164)
at org.apache.kafka.connect.runtime.WorkerSinkTask.pollConsumer(WorkerSinkTask.java:445)
at org.apache.kafka.connect.runtime.WorkerSinkTask.poll(WorkerSinkTask.java:318)
at org.apache.kafka.connect.runtime.WorkerSinkTask.iteration(WorkerSinkTask.java:226)
at org.apache.kafka.connect.runtime.WorkerSinkTask.execute(WorkerSinkTask.java:194)
at org.apache.kafka.connect.runtime.WorkerTask.doRun(WorkerTask.java:175)
at org.apache.kafka.connect.runtime.WorkerTask.run(WorkerTask.java:219)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)
at java.util.concurrent.FutureTask.run(FutureTask.java:266)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748
接收器连接器配置:
connector.class com.wepay.kafka.connect.bigquery.BigQuerySinkConnector
autoUpdateSchemas true
sanitizeTopics true
autoCreateTables true
topics <topic-name>
tasks.max 3
schemaRegistryLocation http://<ip>:8081
project <big-query-project>
maxWriteSize 10000
datasets .*=<big-query-dataset>
task.class com.wepay.kafka.connect.bigquery.BigQuerySinkTask
keyfile /credentials/<credentials-file>.json
name <connector-name>
schemaRetriever com.wepay.kafka.connect.bigquery.schemaregistry.schemaretriever.SchemaRegistrySchemaRetriever
tableWriteWait 1000
bufferSize 100000
它抛出了异常java.lang.IllegalStateException: No current assignment for [...]
属性tasks.max
的价值取决于几个因素。最重要的是特定的连接器。 特定的连接器取决于它的逻辑和值tasks.max
计算将要创建的Task
的数量。 前任。FileStreamSourceConnector
总是创建 1 个任务,所以即使您传递的值高于 1,它也只会创建一个。 同样的情况是PostgresConnector
它与一个平行。
tasks.max
值还应该取决于其他因素,例如:Kafka Connect模式,您有多少个Kafka Connect实例,机器CPU等。
我如何理解您正在使用源连接器(PostgresConnector
)。 源连接器不会轮询来自 Kafka 的数据。例外,您发布的与某些SinkConnector
有关。 如果使用SinkConnector
则tasks.max
不应超过分区数。 如果启动的任务数超过分区数,则某些任务将处于空闲状态(状态为正在运行,但它们不处理数据),并且可能会发生重新平衡。