Dfs and Mapreduce in hadoop 2.4.1



我使用的是hadoop 2.4.1,当我尝试在hadoop 2.4.1中使用dfs时,一切正常。我总是使用 start-dfs.sh 脚本启动,因此以下服务将在系统中启动并运行 数据节点、名称节点和辅助名称节点 - 这很好

昨天,我尝试在etc/hadoop/mapred中配置mapred.xml.xml如下所示

**conf/mapred-site.xml:**
<configuration>
 <property>
     <name>mapred.job.tracker</name>
     <value>localhost:9001</value>
 </property>
</configuration>

我做了以下工作 1.格式化名称节点 2. 我开始 start-all.sh

当我查看日志时,只有以下日志可用,

1. hadoop-datanode.log + out
2. hadoop-namenode.log + out
3. hadoop-secondarynamenode.log + out
4. yarn-nodemanager.log + out
5. yarn-resourcemanager.log + out

当我给jps时,只有以下服务在运行,

1. secondarynamenode
2. namenode
3. datanode
4. nodemanager
5. resourcemanager

我在那里找不到作业跟踪器,而且mapreduce日志也不可用,是我们需要在haddop 2.4.1中为mapreduce指定一些东西

吗?

其他信息,我检查了 50030 的 Web 控制台端口 - 作业跟踪器,该端口不可用,

我对 9001 的端口检查感到不满,没有任何运行

任何帮助被接受请

从Hadoop 2.0开始,mapreduce默认处理框架已经从经典的mapreduce更改为YARN。当您使用 start-all.sh 启动 hadoop 时,它会在内部调用 start-yarn.shstart-dfs.sh

如果你想使用 mapreduce 而不是 yarn,使用 应该使用 start-dfs.sh 和 start-mapred.sh 分别启动 dfs 和 mapReduce 服务(mapreduce1 二进制文件位于目录内${HADOOP_HOME}/bin-mapreduce1,所有配置文件都在目录 ${HADOOP_HOME}/etc/hadoop-mapreduce1 下)。

所有 YARN 和 HDFS 启动脚本都位于 hadoop 主页的 sbin 目录中,在那里你找不到 start-mapred.sh 脚本。 start-mapred.sh 脚本位于目录 bin-mapreduce1 中。

相关内容

  • 没有找到相关文章

最新更新