我试图将集群中的 flink 版本升级到 1.3.1(以及 1.3.2(,但我的任务管理器中出现了以下异常:
2018-02-28 12:57:27,120 ERROR org.apache.flink.streaming.runtime.tasks.StreamTask - Error during disposal of stream operator.
org.apache.kafka.common.KafkaException: java.lang.InterruptedException
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:424)
at org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducerBase.close(FlinkKafkaProducerBase.java:317)
at org.apache.flink.api.common.functions.util.FunctionUtils.closeFunction(FunctionUtils.java:43)
at org.apache.flink.streaming.api.operators.AbstractUdfStreamOperator.dispose(AbstractUdfStreamOperator.java:126)
at org.apache.flink.streaming.runtime.tasks.StreamTask.disposeAllOperators(StreamTask.java:429)
at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:334)
at org.apache.flink.runtime.taskmanager.Task.run(Task.java:702)
at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.InterruptedException
at java.lang.Object.wait(Native Method)
at java.lang.Thread.join(Thread.java:1252)
at java.lang.Thread.join(Thread.java:1326)
at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:422)
... 7 more
作业管理器显示它无法与任务管理器连接。
我正在使用FlinkKafkaProducer08
.有什么想法吗?
首先,从上面的堆栈跟踪中:它是在运算符清理非正常终止期间抛出的(否则不会执行此代码(。看起来应该跟着导致初始问题的真正异常。你能提供更多的日志部分吗?
如果作业管理器无法连接到应运行作业的任何任务管理器,则整个作业将被取消(并根据您的重试策略重试(。同样的情况可能会发生在您的任务管理器端。这可能是根本原因,需要进一步调查。