在master=local[*]的本地计算机上运行Spark并调用.collect方法



我需要一些帮助来理解Spark网站上的文档:

另一个常见的习惯用法是尝试使用RDD.foreach(println(或RDD.map(println。[2nd category]然而,在集群模式下,执行器调用的stdout的输出现在正在写入执行器的stdout。。。

我在本地运行连接到暂存Cassandra(在多个节点上运行(的spark(在Eclipse IDE中具有local[*](属于第一类还是第二类?

感谢您的帮助。

您没有向集群提交代码,因此您的代码是第一类

相关内容