Hadoop MapReduce appcache directory



我正在单节点Hadoop集群上运行MapReduce作业,但是我的磁盘驱动器被attempt_*_spill_*完全填满了。{HADOOP_TMP_DIR}/nm-local-dir/usercache/hduser/appcache目录下的out文件

所以我的问题是:这个文件夹中存储了什么,我能做些什么来限制它的大小?

谢谢!

在mapreduce执行过程中,如果内存不适合,中间数据将溢出到磁盘。

但是这些中间数据将在mapreduce执行的最后阶段作为清理活动的一部分被自动删除。您不能限制大小,而是可以指定多个分区,而不是指定一个分区。为了最小化溢出百分比,可以将mapreduce.map.sort.spill.percent增加到0.90,但是在单个节点中,这将产生内存问题。

如果您已经使用VMware或任何其他工具在linux上配置Hadoop。请从工具设置中增加RAM,并尝试sachinjose提供的步骤。这可能会解决你的问题。

相关内容

  • 没有找到相关文章

最新更新