关键:HDFS-HAWQ -迁移到新的硬件



我们有PHD3.0版本的hadoop集群5节点使用ambari安装在rackspace。我们必须迁移到谷歌云(GCP)。

但是没有得到步骤如何执行

Q1:如何将数据,元数据配置从旧机器迁移到新机器。(旧机器版本是cantos 6.5到目标机器版本centos 6.5)

Q2:要备份哪些组件和文件夹?命令是什么?

Q3:如何备份nameode和datanode ?

Q4:我们还需要备份ambari数据库吗?

如果有任何帮助,我将不胜感激。

我个人倾向于在GCP中配置hadoop集群,并使用distcp将数据移动到新的集群。对于hawq管理的表,将数据移动到hdfs,然后执行distcp。有时在AWS上,我将数据移到s3,然后再导入回hadoop。

相关内容

  • 没有找到相关文章

最新更新