在python中使用Hadoop处理大型csv文件



我有一个巨大的CSV文件,我想在Amazon EMR(python)上使用Hadoop MapReduce进行处理。

该文件有7个字段,但是,我只查看日期数量字段。

 "date" "receiptId" "productId" "quantity"  "price" "posId" "cashierId"

首先,我的mapper.py

import sys
def main(argv):
    line = sys.stdin.readline()
    try:
        while line:
            list = line.split('t')
            #If date meets criteria, add quantity to express key
                if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
                    print '%st%s' % ("Express", int(list[3]))
            #Else, add quantity to non-express key
                else:
                    print '%st%s' % ("Non-express", int(list[3]))
            line =  sys.stdin.readline()
except "end of file":
        return None
if __name__ == "__main__":
        main(sys.argv)

对于reducer,我将使用streaming命令:aggregate。

问题:

  1. 我的代码正确吗?我在亚马逊电子病历中运行了它,但我得到了一个空输出。

  2. 所以我的最终结果应该是:express,XXX和nonexpress,YYY。在返回结果之前,我可以让它做除法运算吗?只是XXX/YYY的结果。我应该把这个代码放在哪里?减速器??

  3. 此外,这是一个巨大的CSV文件,所以映射会把它分成几个分区吗?还是我需要显式调用FileSplit?如果是,我该怎么做?

在这里回答我自己的问题!

  1. 代码错误。若使用聚合库进行reduce,则输出不遵循通常的键值对。它需要一个"前缀"。

    if int(list[0][11:13])>=17 and int(list[0][11:13])<=19:
        #This is the correct way of printing for aggregate library
        #Print all as a string.
        print  "LongValueSum:" + "Express" + "t" + list[3]
    

    其他可用的"前缀"有:DoubleValueSum、LongValueMax、LongValueMin、StringValueMax、StringValueMin、UniqValueCount、ValueHistogram。有关更多信息,请查看此处http://hadoop.apache.org/common/docs/r0.15.2/api/org/apache/hadoop/mapred/lib/aggregate/package-summary.html.

  2. 是的,如果你想做的不仅仅是基本和、最小值、最大值或计数,你需要编写自己的减法器。

  3. 我还没有答案。

相关内容

  • 没有找到相关文章

最新更新