基本上,当我使用 ./start-all.sh 命令启动 hadoop时,我遇到了一些问题。
我已经查看了Hadoop集群设置 - java.net.ConnectException:连接被拒绝
并且有 0 个数据节点正在运行,并且此操作中未排除任何节点
当我运行 ./start-all.sh 时,我得到
WARNING: Attempting to start all Apache Hadoop daemons as snagaraj in 10
seconds.
WARNING: This is not a recommended production deployment configuration.
WARNING: Use CTRL-C to abort.
Starting namenodes on [localhost]
pdsh@greg: localhost: ssh exited with exit code 1
Starting datanodes
Starting secondary namenodes [greg.bcmdc.bcm.edu]
Starting resourcemanager
Starting nodemanagers
当我运行使用Hadoop/hdfs的python脚本时,我收到错误
org.apache.hadoop.ipc.RemoteException(java.io.IOException): File
/user/data/...._COPYING_ could only be written to 0 of the
1 minReplication nodes. There are 0 datanode(s) running and 0 node(s)
are excluded in this operation.
我尝试使用 hdfs 名称节点 -format 重新格式化名称节点,但这无济于事。
我的xml文件上的配置似乎是正确的,我的JAVA_HOME路径是正确的。我很乐意根据需要提供信息。
执行:主节点或名称节点服务器中的ssh 本地主机。
如果它能够连接,那么您的上述问题将得到解决。