我的问题是对文件中的值进行排序。键和值是整数,需要维护排序值的键。
key value
1 24
3 4
4 12
5 23
输出:
1 24
5 23
4 12
3 4
我正在处理大量数据,必须在hadoop机器集群中运行代码。如何使用mapreduce?
您可能可以这样做(我假设您在这里使用Java)
从地图像这样发射-
context.write(24,1);
context.write(4,3);
context.write(12,4)
context.write(23,5)
因此,所有需要排序的值都应该是mapreduce作业中的关键。Hadoop默认按键的升序进行排序。
因此,要么按降序排序,
job.setSortComparatorClass(LongWritable.DecreasingComparator.class);
或者,这个,
你需要设置一个自定义的降序排序比较器,它在你的工作中是这样的。
public static class DescendingKeyComparator extends WritableComparator {
protected DescendingKeyComparator() {
super(Text.class, true);
}
@SuppressWarnings("rawtypes")
@Override
public int compare(WritableComparable w1, WritableComparable w2) {
LongWritable key1 = (LongWritable) w1;
LongWritable key2 = (LongWritable) w2;
return -1 * key1.compareTo(key2);
}
}
Hadoop中的填充和排序阶段将负责按降序对密钥进行排序24,4,12,23
评论后:
如果你需要一个Descending IntWritable Comparable,你可以创建一个并像这样使用它-
job.setSortComparatorClass(DescendingIntComparable.class);
如果您正在使用JobConf,请使用此设置
jobConfObject.setOutputKeyComparatorClass(DescendingIntComparable.class);
将以下代码放在您的main()
函数-下面
public static void main(String[] args) {
int exitCode = ToolRunner.run(new YourDriver(), args);
System.exit(exitCode);
}
//this class is defined outside of main not inside
public static class DescendingIntWritableComparable extends IntWritable {
/** A decreasing Comparator optimized for IntWritable. */
public static class DecreasingComparator extends Comparator {
public int compare(WritableComparable a, WritableComparable b) {
return -super.compare(a, b);
}
public int compare(byte[] b1, int s1, int l1, byte[] b2, int s2, int l2) {
return -super.compare(b1, s1, l1, b2, s2, l2);
}
}
}