如何在多节点Hadoop集群上设置Spark



我想在多节点集群上安装Hadoop HDFS和Spark。

我能够在多节点群集上成功安装和配置 Hadoop。我还在主节点上安装并配置了 Spark。

怀疑我是否也必须在奴隶中配置火花?

怀疑我也必须配置奴隶的火花?

不应该。你完成了。你所做的不仅仅是将Spark应用程序提交给Hadoop YARN(我的结论是集群管理器(。

Spark

是一个用于在海量数据集上进行分布式计算的库,因此它只属于您的 Spark 应用程序(而不是您可能使用的任何集群(。

是时候spark-submit Spark 应用程序了!

最新更新