Hadoop独立模式出现连接错误



当我在独立模式下运行以下程序时,

*phoenix@phoenix-Aspire-E1-570:/usr/local/hadoop$ bin/hadoop jar 
share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+'*

它给了我以下错误,

15/12/06 22:45:45 INFO client.RMProxy: Connecting to ResourceManager at 
localhost/127.0.0.1:8032
15/12/06 22:45:46 INFO ipc.Client: Retrying connect to server: 
localhost/127.0.0.1:8032. 
Already tried 0 time(s); retry policy is 
RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
15/12/06 22:45:47 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:8032. 
Already tried 1 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10,
sleepTime=1000 MILLISECONDS)

我使用了所有默认设置。对于独立模式,我尝试了下一页中提到的相同步骤。https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html#Standalone_Operation

注意:根据我的理解,我们不需要在独立模式下启动任何守护程序。

我发现了这个问题。问题出在mapred-site.xml上。在独立模式下,mapreduce.framework.name属性应该是本地的。我在那里提到了纱线。一旦我换了它,它就很好用。

相关内容

  • 没有找到相关文章