Hadoop start-all.sh errors



基本上,当我使用 ./start-all.sh 命令启动 hadoop时,我遇到了一些问题。

我已经查看了Hadoop集群设置 - java.net.ConnectException:连接被拒绝

并且有 0 个数据节点正在运行,并且此操作中未排除任何节点

当我运行 ./start-all.sh 时,我得到

WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10 
seconds.
WARNING: This is not a recommended production deployment configuration.
WARNING: Use CTRL-C to abort.
Starting namenodes on [localhost]
pdsh@greg: localhost: ssh exited with exit code 1
Starting datanodes
Starting secondary namenodes [greg.bcmdc.bcm.edu]
Starting resourcemanager
Starting nodemanagers

当我运行使用Hadoop/hdfs的python脚本时,我收到错误

org.apache.hadoop.ipc.RemoteException(java.io.IOException): File 
/user/data/...._COPYING_ could only be written to 0 of the 
1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) 
are excluded in this operation.

我尝试使用 hdfs 名称节点 -format 重新格式化名称节点,但这无济于事。

我的xml文件上的配置似乎是正确的,我的JAVA_HOME路径是正确的。我很乐意根据需要提供信息。

执行:主节点或名称节点服务器中的ssh 本地主机

如果它能够连接,那么您的上述问题将得到解决。

最新更新