在mongodb的Map Reduce框架中是否有类似于Combiner(如Hadoop Map Reduce)的东西?我们正在mongodb集群中尝试map reduce框架,在发送到reduce阶段之前,一个键有几行可能被合并。
1 billion records which I'm going to map-reduce
Each record is 100 bytes
100 records with same key (map) on each node
网络b/w不是这种操作的瓶颈吗?我知道这将导致大量的发射,这可以避免,如果有一个迷你的减速器(说合并)阶段在每个节点上,或者是我的理解不正确?
有没有类似Hadoop Map reduce的Combiner阶段的东西,如果没有,是否计划在以后的版本中有类似的东西?
就我目前所知,在Mongo的MapReduce实现中没有combiner阶段。Mongo实现了一个与标准稍有不同的MR版本;如果你有性能问题,你最好使用Hadoop。
这里你有另一个SO问题讨论Mongo MR和Hadoop之间的差异。