昨天,我在python中使用多处理处理处理了一个约有2000万行的日志文件。
- 启动一个名为"生产者"的进程,逐行读取文件并将其放入队列
- 启动三个名为"consumeri"的进程,从队列中提取一行,并对其进行分析以获得ip
- 在主函数中,我启动这些进程并使用join()等待
代码低于
from multiprocessing import Process, Queue
from Queue import Empty
import os
import time
def put_ip(src, q, number):
"""
read file line by line, and put it to queue
"""
print "start put_ip: %d" % os.getpid()
with open(src) as f:
for line in f:
q.put(line)
for i in range(number):
q.put(EOFError)
print "stop put_ip"
def get_ip(lock, src, result, index):
"""
fetch line, and extract ip from it
"""
print "start get_ip %d: %d" % (index, os.getpid())
ips = []
while True:
line = src.get()
if line == EOFError:
print "%d get EOFError" % index
break
else:
res = json.loads(line.strip())
# process res, get ip
ips.append(ip)
print "get_ip %d get %d ips" % (os.getpid(), len(ips))
result.put('n'.join(ips))
ips = []
print "stop get_ip %d" % os.getpid()
return
def test_get_ip(src, dest, number):
"""
test with single process
"""
srcq = Queue()
result = Queue()
with open(src) as f:
for line in f:
# if 'error' not in line:
srcq.put(line)
for i in range(number):
srcq.put(EOFError)
get_ip(srcq, result, 0)
def main(src, dest, number):
"""
with multiprocess
"""
srcq = Queue()
result = Queue()
producer = Process(target=put_ip, args=(src, srcq, number))
consumers = [Process(target=get_ip, args=(srcq, result, i)) for i in xrange(number)]
print 'start at %s' % time.asctime()
starttime = time.time()
producer.start()
for consumer in consumers:
consumer.start()
producer.join()
for consumer in consumers:
consumer.join()
with open(dest, 'w') as w:
while True:
try:
res = result.get_nowait()
w.write(res +'n')
except Empty:
print 'Empty'
break
print "time: %f" % (time.time()-starttime)
if __name__ == '__main__':
parser = argparse.ArgumentParser()
parser.add_argument('-i', dest='src', required=True)
parser.add_argument('-o', dest='dest', required=True)
parser.add_argument('-n', dest='number', type=int, default=2)
args = parser.parse_args()
main(args.src, args.dest, args.number)
# test_get_ip(args.src, args.dest, args.number)
结果很奇怪,使用者进程在工作完成后不会终止,主函数在join()处被阻塞
使用以下不同的套件和记录进行测试:
- 使用test_get_ip()而不进行多处理来处理大小日志文件,效果很好
- 将main()与multiprocessing一起使用来处理大型日志文件,它将在join()处阻塞。每个get_ip进程都将打印"停止get_ip XXXX",但不会终止
- 使用main()处理2000行的较小日志文件,它也能很好地工作。get_ip将终止
- 如果我不将ip存储在get_ip()中的列表ips中,那么无论日志文件大小,它都可以正常工作
那么,问题出在哪里呢?它在列表中有限制吗?我错过了什么吗?
我的机器环境是:
Linux 3.19.0-32-generic #37~14.04.1-Ubuntu SMP Thu Oct 22 09:41:40 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
Python 2.7.6 (default, Jun 22 2015, 17:58:13)
[GCC 4.8.2] on linux2
谢谢你抽出时间!
我认为您的问题是缓冲所有数据,并且只有在消费者完成后才发送结果。
假设运行get_ip()
的进程在一个列表中收集了1M个ip地址。现在,在终止之前,它需要序列化所有这些数据并将其传递给Queue
,然后main()
函数将接收并反序列化所有这些数据。
我的建议是,将IP地址直接放入结果队列中,然后让main()
进程获取它们并在它们到来时写入。