在 hadoop 中设置历史记录服务器时出错


所有

数据节点都已启动并正在运行,但是在Hadoop中设置历史记录服务器(mapreduce2)时仍然出现以下错误。

resource_management.core.exceptions.Fail: Execution of 'curl -sS -L -w '%{http_code}' -X PUT -T/usr/hdp/2.3.4.0-3485/hadoop/mapreduce.tar.gz "http://ambari1.devcloud.247-inc.net:50070/webhdfs/v1/hdp/apps/2.3.4.0-3485/mapreduce/mapreduce.tar.gz?op=CREATE&user.name=hdfs&overwrite=True&permission=444"

返回 status_code=403。 { "远程异常": { "例外": "IOException", "javaClassName": "java.io.IOException", "消息": "找不到数据节点,建议检查集群运行状况。"
}

}

从名称节点中,运行以下命令以确保数据节点正常运行并从名称节点访问

bin/hadoop dfsadmin -report

您可以看到类似

-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)
Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 176945963008 (164.79 GB)
DFS Used: 2140192768 (1.99 GB)
Non DFS Used: 42513027072 (39.59 GB)
DFS Remaining: 132292743168(123.21 GB)
DFS Used%: 1.21%
DFS Remaining%: 74.76%
Last contact: Wed Jan 06 20:04:51 IST 2016

如果看到 0 个数据节点,则配置一定是错误的

相关内容

  • 没有找到相关文章