数据源输出的初始化导致错误:UDF 类不是正确的子类



我有这个问题

数据源输出的初始化导致错误:UDF 类不是 org.apache.flink.api.common.functions.MapFunction 的正确子类

由以下代码生成:

        val probes: DataSet[Probe] = env.createInput[InputProbe](new ProbesInputFormat).map { i =>
        new Probe(
            i.rssi,
            0,
            i.macHash,
            i.deviceId,
            0,
            i.timeStamp)
    }

我在带有 IDEA 的 flink 1.4.0 上使用 scala 2.11。在开发机器上我没有问题并且作业运行正常,而在 3 个节点的 Flink 独立集群上,我遇到了上述错误。

你能帮我吗;(

更新:

我解决了实现一个从 RichMapFunction 扩展的类,我不知道为什么,但似乎 lambda 函数 => 没有得到正确支持。

现在我有一个新问题:

java.lang.ClassCastException: hk.huko.aps2.entities.Registry 不能强制转换为 scala。产品

我应该打开一个新的开机自检吗?

我解决了这个问题。发生这种情况是因为 flink 多次加载我的作业 JAR(类加载器(,并且以某种方式产生了该错误。

解决方案不是创建包含所有外部 JAR 依赖项的 JAR,而是将这些库和作业 JAR 复制到 flink/lib 文件夹中。

最新更新