将 yarn 配置分配给 EMR 中的 Spark 命令



我们有一个运行的 spark 命令,但我们面临着一些磁盘空间问题所以我们想使用

conf,yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-
       percentage=99.0

但是我们的日志中Warning: Ignoring non-spark config property: yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage=99.0

我们如何获得它,所以火花采用这种配置

""Spark_Command": "command-runner.jar,spark-submit, --class,com.go.ccc.ew.modules.fred.fmodel, --name,\"f module Module\", --master,yarn, --deploy-mode,client, --executor-memory,36G, --executor-cores,4, --conf,spark.sql.shuffle.partitions=640, --conf,spark.yarn.am.memoryOverhead=5120, --conf,yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk- percentage=99.0,/home/hadoop/linking.jar,jobId=# {myJobId},environment=dev"

特定属性在纱线站点中.xml而不是与 aspark 相关的属性。

您必须在 yarn 中设置此属性并重新启动 yarn。然后,您可以提交作业。

<property>
<name>
yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage
</name>
<value>90.0</value>
<source>yarn-default.xml</source>
</property>

或者,您可以使用更高的音量引导它。

我已经研究了一些关于动态更改纱线配置的研究。

但纱线是集群级别的属性

因此不能针对不同的应用程序动态更改。如果您找到解决方案,请发布。这很有趣。

相关内容

  • 没有找到相关文章

最新更新