我们有一个12服务器hadoop集群(CDH),最近,我们想退役其中的三个,但这个过程已经运行了2天多。特别是在过去的24小时内,我看到三个数据节点上只有94G的数据可用,但在过去的24小时内,数据的大小似乎没有变化。即使通过未复制的块数已经为零。hdfs中所有数据的复制因子为3。
hadoop fsck命令的结果如下:
总大小:5789534135468 B(总打开文件大小:94222879072 B)总人数:42458文件总数:5494378总符号链接:0(当前正在写入的文件:133)总块(已验证):5506578(平均块大小为1051385 B)(总打开文件块(未验证):822)最小复制块:5506578 (100.0%)过度复制块:0 (0.0%)未复制的块:0 (0.0%)错误复制的块:0 (0.0%)默认复制因子:3平均块复制:2.999584损坏块:0丢失副本:0 (0.0%)数据节点数:13机架数:1FSCK结束于Mon Oct 17 16:36:09 KST 2016, in 781094毫秒
可以尝试在datanode上停止cloudera代理。
sudo service cloudera-scm-agent hard_stop_confirmed
停止代理后,您可以直接从hdfs实例页删除该datanode
希望能成功