-partitioner : class not found : org.apache.Hadoop.mapred.li



我正在编写MRjob,并希望基于键对我的化简器输出进行分区。 我正在使用这些选项并得到以下错误。如何使用基于键字段的分区程序?我需要为此下载一些东西吗?MRJOB是用python编写的。

Step 1 of 1 failed: Command '['hadoop', 'jar',
'/usr/lib/hadoop-mapreduce/hadoop-streaming.jar', '-files',
'hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/abc.py#parsec_status_error_fedactivity.py,hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/setup-wrapper.sh#setup-wrapper.sh',
'-archives',
'hdfs://hdpb-dfs/tmp/20170716.162009.525122/files/mrjob.tar.gz#mrjob.tar.gz',
'-D', 'mapreduce.job.name=abc', '-D', 'mapreduce.job.reduces=2',
'-D', 'mapreduce.job.split.metainfo.maxsize=-1', '-D',
'mapreduce.map.failures.maxpercent=1', '-D',
'mapreduce.map.java.opts=-Xmx1g', '-D',
'mapreduce.map.memory.mb=2048', '-D',
'mapreduce.output.fileoutputformat.compress=true', '-D',
'mapreduce.output.fileoutputformat.compress.codec=org.apache.hadoop.io.compress.GzipCodec',
'-D', 'mapreduce.partition.keypartitioner.options=-k1', '-D',
'mapreduce.reduce.java.opts=-Xmx2g', '-D',
'mapreduce.reduce.memory.mb=3072', '-D',
'mapreduce.reduce.shuffle.input.buffer.percent=0.4', '-D',
'mapreduce.reduce.shuffle.merge.percent=0.4', '-D',
'stream.map.input.ignoreKey=true', '-D',
'stream.num.map.output.key.fields=5', '-libjars',
'/opt/parsec/lib/correctionlayer2.jar', '-partitioner',
'org.apache.Hadoop.mapred.lib.KeyFieldBasedPartitioner', '-input',
'hdfs:////10.134.71.100.1500076800077.gz', '-output',
'hdfs:///20170715', '-mapper', 'sh -ex setup-wrapper.sh python abc.py
--step-num=0 --mapper', '-reducer', 'sh -ex setup-wrapper.sh python abc.py --step-num=0 --reducer']' returned non-zero exit status 256de
here

运行步骤 1(共 1 步(

-partitioner : class not find : org.apache.Hadoop.mapred.lib.KeyFieldBasedPartitioner

尝试 -help 以获取更多信息

流式处理命令失败!

我不得不在"--partitioner","org.apache.hadoop.mapred.lib.KeyFieldBasedPartitioner"中使用较小的大小写"h", 它奏效了,但没有做这件事。

相关内容

最新更新