每当我运行任何hdfs dfs
命令时,我都会得到Call From hostnamehere/10.138.238.104 to hostnamehere:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
我在网上搜索了很多解决方案,但每个人似乎都提供了相同的几个解决方案,但没有一个对我有用。我尝试了以下方法:
stop-dfs.sh
和start-dfs.sh
---这没有帮助
stop-dfs.sh
并hadoop namenode -format
然后start-dfs.sh
---修复它大约 5 分钟(我可以运行hdfs dfs
命令(,然后它将返回到ConnectException
错误。
仔细检查我的core-site.xml
和其他 Hadoop.xml配置,以确保它们正确(与另一个工作的 hdfs 集群完全相同的配置(
已检查/etc/hosts
以确保主机和主机名正确。
systemctl stop/start hadoop
---没有帮助
从我尝试的所有事情中,唯一暂时有效的方法是做hadoop namenode -format
,但它只修复了大约 5 分钟,然后它又坏了。有人有其他建议吗?我最困惑的是,它怎么能工作几分钟然后不起作用?这必须意味着配置是正确的,否则它甚至一次都无法工作,对吗?
检查你的/etc/hosts 检查您的核心站点.xml确保您的IP与 hdfs://ip:8020 相同 和 stop-dfs.sh start-dfs.sh 还行