即使所有守护程序都在Hadoop上工作,连接也拒绝了



我正在hadoop 2.x上工作,当我运行JPS时,它显示了所有正确运行的守护程序。

[root@localhost Flume]# jps
3521 NodeManager
3058 DataNode
3252 SecondaryNameNode
4501 Jps
3419 ResourceManager
2957 NameNode

但是当我跑步时,

hadoop dfs -ls /

它说,

ls: Call From localhost.localdomain/127.0.0.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

请帮助我。

您给出的命令" hadoop dfs -ls/"不正确。将DFS更改为FS。可以通过两种方式指定此命令:

  1. hadoop fs -ls//*这是旧样式,被弃用 */
  2. HDFS DFS -LS//*这是新样式 */

请注意两个命令的差异。第一命令的第二部分应为FS,而不是DFS。

最新更新