Apache Spark如何处理非Spark代码



假设我创建了一个Spark作业(在Java中),其中包括SPARK代码(使用数据集API)和非SPARK代码。似乎火花代码将自动并行化并在多台计算机上运行。Spark知道只能在一台计算机上运行常规java/nonspark吗?

SPARK程序是标准的Scala/Java程序。除非您明确使用分布/并行化原始词,否则代码完全按原样运行。因此回答:

Spark知道仅在一台机器上运行常规java/non-spark吗?

它只是不在乎。对于JVM,它是普通代码。

相关内容

  • 没有找到相关文章

最新更新