为什么在Hadoop中reduce_input_records不到combine_output_records



我用组合器运行WordCount的例子。以下是运行结果:

13/10/07 22:32:38 INFO mapred.JobClient:     Map input records=20111076
13/10/07 22:32:38 INFO mapred.JobClient:     Reduce shuffle bytes=467280
13/10/07 22:32:38 INFO mapred.JobClient:     Spilled Records=541137
13/10/07 22:32:38 INFO mapred.JobClient:     Map output bytes=632287974
13/10/07 22:32:38 INFO mapred.JobClient:     Total committed heap usage (bytes)=4605870080
13/10/07 22:32:38 INFO mapred.JobClient:     Combine input records=62004735
13/10/07 22:32:38 INFO mapred.JobClient:     SPLIT_RAW_BYTES=2280
13/10/07 22:32:38 INFO mapred.JobClient:     Reduce input records=32020
13/10/07 22:32:38 INFO mapred.JobClient:     Reduce input groups=1601
13/10/07 22:32:38 INFO mapred.JobClient:     Combine output records=414658
13/10/07 22:32:38 INFO mapred.JobClient:     Reduce output records=1601
13/10/07 22:32:38 INFO mapred.JobClient:     Map output records=61622097

我有两个问题,为什么map_output_recordscombine_input_records少?为什么reduce_input_recordscombine_output_records少得多?我知道组合器可能会被调用几次,但combine_output_records的数字不应该是最后一次调用的结果吗?为什么它不等于化简器消耗的 # 条记录?

感谢您的任何帮助!

组合器并不总是被调用,你实际上无法控制它是否被调用(或调用多少次),这是由框架决定的。这可能解释了这些数字。看起来组合器做得很好:

Map output records=61622097    ->  Reduce input records=32020

相关内容

  • 没有找到相关文章

最新更新