如何在hadoop中的名称节点之间切换



伪模式集群:

假设我第一次在机器"a"上创建一个名为"Root1"的名称节点。这将在机器上创建HDFS。现在,我使用copyFromLocal将一些文件复制到HDFS,并进行一些mapreduce。

现在我需要更改一些/conf文件。我将更改配置文件并使其有效,我格式化了名称为"Root2"的namenode。如果我浏览HDFS,它将是空的(意味着它将不包含之前为"Root1"复制的那些)。

如果我想看到旧文件(对于"Root1"),有没有办法切换到HDFS或名称节点(Root2到Root1)??

待澄清。您是否在机器上启动了另一个名称节点?

在控制台中键入sudo jps或http://localhost:50070在浏览器中,检查是否有多个数据节点。如果只有一个节点丢失了HDFS中的数据。如果您有两个名称节点,您可以在上的Internet浏览器中检查文件系统http://localhost:50070.

以下是如何在一台机器上启动多个数据节点的说明。

相关内容

  • 没有找到相关文章

最新更新