如何清洁Hadoop MapReduce内存使用情况



我想问。例如,我可以说,激活启动all.sh进程后,我的每个节点上都有10 MB内存。因此,我运行了Namenode,DataNode,Secondary Namenode,dll。但是,在完成Hadoop MapReduce作业之后,例如内存为何减少为5 MB。而Hadoop MapReduce工作已经完成。

如何回到10 MB的免费内存?谢谢大家....

也许您可以尝试Linux清除内存命令:

echo 3 > /proc/sys/vm/drop_caches

最新更新