我有这个问题
数据源输出的初始化导致错误:UDF 类不是 org.apache.flink.api.common.functions.MapFunction 的正确子类
由以下代码生成:
val probes: DataSet[Probe] = env.createInput[InputProbe](new ProbesInputFormat).map { i =>
new Probe(
i.rssi,
0,
i.macHash,
i.deviceId,
0,
i.timeStamp)
}
我在带有 IDEA 的 flink 1.4.0 上使用 scala 2.11。在开发机器上我没有问题并且作业运行正常,而在 3 个节点的 Flink 独立集群上,我遇到了上述错误。
你能帮我吗;(
更新:
我解决了实现一个从 RichMapFunction 扩展的类,我不知道为什么,但似乎 lambda 函数 => 没有得到正确支持。
现在我有一个新问题:
java.lang.ClassCastException: hk.huko.aps2.entities.Registry 不能强制转换为 scala。产品
我应该打开一个新的开机自检吗?
我解决了这个问题。发生这种情况是因为 flink 多次加载我的作业 JAR(类加载器(,并且以某种方式产生了该错误。
解决方案不是创建包含所有外部 JAR 依赖项的 JAR,而是将这些库和作业 JAR 复制到 flink/lib 文件夹中。