假设我创建了一个Spark作业(在Java中),其中包括SPARK代码(使用数据集API)和非SPARK代码。似乎火花代码将自动并行化并在多台计算机上运行。Spark知道只能在一台计算机上运行常规java/nonspark吗?
SPARK程序是标准的Scala/Java程序。除非您明确使用分布/并行化原始词,否则代码完全按原样运行。因此回答:
Spark知道仅在一台机器上运行常规java/non-spark吗?
它只是不在乎。对于JVM,它是普通代码。