我需要通过执行Spark2-Submit来处理输入数据文件,以通过PySpark脚本处理输入文件。我观察到的是,对于每一个Spark2-提交,Spark在进行最新输入文件的数据处理之前会做很多初始化。这导致延迟。我如何在Spark2-Submits之间保持火花群集?
单独但相关的问题:除了Spark2-Submit,还可以使用哪些其他机制提交有效载荷以spark?
事先感谢您的见解。
cluster
除非您在local
模式下使用Spark(那里确实没有群集)群集在不同的应用程序之间保留。
SparkContext和Sparksession
是本地对象。那里的寿命不能超过应用程序。如果初始化时间不可接受,则可以调整应用程序以使用应用程序。