Spark:onApplicationStart从未被调用



MyJavaSparkListener

package com.streamanalytix.spark.core.pipeline;
import org.apache.commons.logging.Log;
import org.apache.spark.JavaSparkListener;
import org.apache.spark.scheduler.SparkListenerApplicationEnd;
import org.apache.spark.scheduler.SparkListenerApplicationStart;
import org.apache.spark.scheduler.SparkListenerBlockManagerAdded;
import org.apache.spark.scheduler.SparkListenerBlockManagerRemoved;
public class MyJavaSparkListener extends JavaSparkListener {
    /** The Constant LOGGER. */
    private static final Log LOGGER = LogUtil.getLogger(MyJavaSparkListener.class);
    public MyJavaSparkListener() {
        super();
        LOGGER.info("---------------------------------------------- Creating new SaxJavaSparkListener");
    }
    @Override
    public void onApplicationStart(SparkListenerApplicationStart arg0) {
        LOGGER.info("---------------------------------------------- Spark pipeline is up and running...");
    }
    @Override
    public void onApplicationEnd(SparkListenerApplicationEnd arg0) {
        LOGGER.info("---------------------------------------------- Spark pipeline going to shutdown...");
    }
    @Override
    public void onBlockManagerAdded(SparkListenerBlockManagerAdded blockManagerAdded) {
        LOGGER.info("---------------------------------------------- onBlockManagerAdded");
    }
    @Override
    public void onBlockManagerRemoved(SparkListenerBlockManagerRemoved blockManagerRemoved) {
        LOGGER.info("---------------------------------------------- onBlockManagerRemoved");
    }
}

我正在下面的注册这个听众

context.sparkContext().sc().addSparkListener(new MyJavaSparkListener());

我正在客户端模式下运行Spark应用程序,但没有看到为onApplicationStartonApplicationEnd打印的任何日志。但是,会调用onBlockManagerAdded并打印日志。我不知道onApplicationStart的用途是什么,也不知道如何使用它,因为文档太有限了。

谢谢。

问题是在注册侦听器之前已经发送了SparkListenerApplicationStart。为了避免这种情况,您可以使用配置spark.extraListeners。然后Spark会在任何事件之前注册您的侦听器。以下是有关此配置的说明(http://spark.apache.org/docs/latest/configuration.html#application-属性):

实现SparkListener的类的逗号分隔列表;初始化SparkContext时,这些类的实例将被创建并注册到Spark的侦听器总线中。如果一个类有一个接受SparkConf的单参数构造函数,则会调用该构造函数;否则,将调用一个零参数构造函数。如果找不到有效的构造函数,则SparkContext创建将失败并出现异常。

相关内容

  • 没有找到相关文章

最新更新