尝试升级到 flink 1.3.1 时出现异常



我试图将集群中的 flink 版本升级到 1.3.1(以及 1.3.2(,但我的任务管理器中出现了以下异常:

2018-02-28 12:57:27,120 ERROR org.apache.flink.streaming.runtime.tasks.StreamTask           - Error during disposal of stream operator.
org.apache.kafka.common.KafkaException: java.lang.InterruptedException
        at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:424)
        at org.apache.flink.streaming.connectors.kafka.FlinkKafkaProducerBase.close(FlinkKafkaProducerBase.java:317)
        at org.apache.flink.api.common.functions.util.FunctionUtils.closeFunction(FunctionUtils.java:43)
        at org.apache.flink.streaming.api.operators.AbstractUdfStreamOperator.dispose(AbstractUdfStreamOperator.java:126)
        at org.apache.flink.streaming.runtime.tasks.StreamTask.disposeAllOperators(StreamTask.java:429)
        at org.apache.flink.streaming.runtime.tasks.StreamTask.invoke(StreamTask.java:334)
        at org.apache.flink.runtime.taskmanager.Task.run(Task.java:702)
        at java.lang.Thread.run(Thread.java:748)
Caused by: java.lang.InterruptedException
        at java.lang.Object.wait(Native Method)
        at java.lang.Thread.join(Thread.java:1252)
        at java.lang.Thread.join(Thread.java:1326)
        at org.apache.kafka.clients.producer.KafkaProducer.close(KafkaProducer.java:422)
        ... 7 more

作业管理器显示它无法与任务管理器连接。

我正在使用FlinkKafkaProducer08.有什么想法吗?

首先,从上面的堆栈跟踪中:它是在运算符清理非正常终止期间抛出的(否则不会执行此代码(。看起来应该跟着导致初始问题的真正异常。你能提供更多的日志部分吗?

如果作业管理器

无法连接到应运行作业的任何任务管理器,则整个作业将被取消(并根据您的重试策略重试(。同样的情况可能会发生在您的任务管理器端。这可能是根本原因,需要进一步调查。

相关内容

  • 没有找到相关文章

最新更新