我使用的是hadoop 2.4.1,当我尝试在hadoop 2.4.1中使用dfs时,一切正常。我总是使用 start-dfs.sh 脚本启动,因此以下服务将在系统中启动并运行 数据节点、名称节点和辅助名称节点 - 这很好
昨天,我尝试在etc/hadoop/mapred中配置mapred.xml.xml如下所示
**conf/mapred-site.xml:**
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
我做了以下工作 1.格式化名称节点 2. 我开始 start-all.sh
当我查看日志时,只有以下日志可用,
1. hadoop-datanode.log + out
2. hadoop-namenode.log + out
3. hadoop-secondarynamenode.log + out
4. yarn-nodemanager.log + out
5. yarn-resourcemanager.log + out
当我给jps时,只有以下服务在运行,
1. secondarynamenode
2. namenode
3. datanode
4. nodemanager
5. resourcemanager
我在那里找不到作业跟踪器,而且mapreduce日志也不可用,是我们需要在haddop 2.4.1中为mapreduce指定一些东西
吗?其他信息,我检查了 50030 的 Web 控制台端口 - 作业跟踪器,该端口不可用,
我对 9001 的端口检查感到不满,没有任何运行
任何帮助被接受请
从Hadoop 2.0开始,mapreduce默认处理框架已经从经典的mapreduce更改为YARN。当您使用 start-all.sh
启动 hadoop 时,它会在内部调用 start-yarn.sh
和 start-dfs.sh
。
如果你想使用 mapreduce 而不是 yarn,使用 应该使用 start-dfs.sh 和 start-mapred.sh 分别启动 dfs 和 mapReduce 服务(mapreduce1 二进制文件位于目录内${HADOOP_HOME}/bin-mapreduce1
,所有配置文件都在目录 ${HADOOP_HOME}/etc/hadoop-mapreduce1
下)。
所有 YARN 和 HDFS 启动脚本都位于 hadoop 主页的 sbin 目录中,在那里你找不到 start-mapred.sh 脚本。 start-mapred.sh 脚本位于目录 bin-mapreduce1 中。