来自群集的HADOOP_CONF_DIR的值



我已经使用Ambari设置了一个集群(YARN),其中有3个虚拟机作为主机。

在哪里可以找到HADOOP_CONF_DIR的值?

# Run on a YARN cluster
export HADOOP_CONF_DIR=XXX
./bin/spark-submit 
  --class org.apache.spark.examples.SparkPi 
  --master yarn-cluster   # can also be `yarn-client` for client mode
  --executor-memory 20G 
  --num-executors 50 
  /path/to/examples.jar 
  1000

也安装Hadoop。在我的例子中,我已经将它安装在/usr/local/haooop 中

设置Hadoop环境变量

export HADOOP_INSTALL=/usr/local/hadoop

然后设置conf目录

export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop

来自/etc/spark/conf/spark-env.sh:

export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}

相关内容

  • 没有找到相关文章

最新更新