我有一个关于在集群模式下在纱线上运行的apache spark的问题。根据该线程,Spark本身不必在群集中的每个(工作)节点上安装。我的问题是Spark执行者:通常,纱线或资源管理器应该决定资源分配。因此,可以在集群中的任何(工作)节点上随机启动Spark执行者。但是,如果没有在任何(Worker)节点上安装SPARK,则如何通过纱线启动Spark执行者?
在纱线上启动Spark应用程序时,
- 将在一个纱线容器中创建应用程序主( SPARK特定)。
- 其他用于火花工人(执行者)的纱线容器
火花驱动程序将将序列化操作(代码)传递给执行者来处理数据。
spark-emembly 提供与火花相关的罐子,以在A上运行Spark作业 纱线集群和应用程序将具有自己的功能相关 罐子。
编辑:(2017-01-04)
Spark 2.0 不再需要脂肪组装罐生产 部署。source