如果在工人节点上未安装Spark(在纱线上),Spark执行者将如何启动



我有一个关于在集群模式下在纱线上运行的apache spark的问题。根据该线程,Spark本身不必在群集中的每个(工作)节点上安装。我的问题是Spark执行者:通常,纱线或资源管理器应该决定资源分配。因此,可以在集群中的任何(工作)节点上随机启动Spark执行者。但是,如果没有在任何(Worker)节点上安装SPARK,则如何通过纱线启动Spark执行者?

在纱线上启动Spark应用程序时,

  1. 将在一个纱线容器中创建应用程序主( SPARK特定)。
  2. 其他用于火花工人(执行者)的纱线容器

火花驱动程序将将序列化操作(代码)传递给执行者来处理数据。

spark-emembly 提供与火花相关的罐子,以在A上运行Spark作业 纱线集群和应用程序将具有自己的功能相关 罐子。


编辑:(2017-01-04)

Spark 2.0 不再需要脂肪组装罐生产 部署。source

相关内容

  • 没有找到相关文章

最新更新