在运行 Spark 作业时选择 JVM



如何将java路径传递给spark-submit以选择非默认的JVM(不在JAVA_HOME中)?不允许在我的环境中设置任何环境变量。

http://spark.apache.org/docs/1.1.1/configuration.html

请参阅环境变量部分。

好的,似乎使用 SPARK_YARN_USER_ENV 是解决问题的方法之一。另外,似乎setExecutorEnv可以用于此目的,但我没有尝试。

相关内容

  • 没有找到相关文章