下面是我使用多处理的示例程序。用multiprocessing.Process
进行计算,用multiprocessing.Queue
收集计算结果。
#THIS PROGRAM RUNS WITH ~40Gb RAM. (you can reduce a,b,c for less RAM
#but then it works for smaller values)
#PROBLEM OCCURS ONLY FOR HUGE DATA.
from numpy import *
import multiprocessing as mp
a = arange(0, 3500, 5)
b = arange(0, 3500, 5)
c = arange(0, 3500, 5)
a0 = 540. #random values
b0 = 26.
c0 = 826.
def rand_function(a, b, c, a0, b0, c0):
Nloop = 100.
def loop(Nloop, out):
res_total = zeros((700, 700, 700), dtype = 'float')
n = 1
while n <= Nloop:
rad = sqrt((a-a0)**2 + (b-b0)**2 + (c-c0)**2)
res_total += rad
n +=1
out.put(res_total)
out = mp.Queue()
jobs = []
Nprocs = mp.cpu_count()
print "No. of processors : ", Nprocs
for i in range(Nprocs):
p = mp.Process(target = loop, args=(Nloop/Nprocs, out))
jobs.append(p)
p.start()
final_result = zeros((700, 700, 700), dtype = 'float')
for i in range(Nprocs):
final_result = final_result + out.get()
p.join()
test = rand_function(a,b,c,a0, b0, c0)
错误信息如下:
Traceback (most recent call last):
File "/usr/lib/python2.7/multiprocessing/queues.py", line 266, in _feed
send(obj)
SystemError: NULL result without error in PyObject_Call
我在这里读到这是一个bug。但我无法理解。谁能告诉我任何方法来计算使用多处理的巨大数据?
非常感谢
您参考的错误报告指出multiprocessing模块无法将大参数推入子进程。
原因是它需要pickle这些参数,并将pickle后的blob存储在内存的某个地方。
不需要将数组作为参数传递。
可能的原因:
- 传递闭包
loop
作为目标 - 传递
mp.Queue()
作为参数
关于将闭包转换为类,请参阅http://stevenengelhardt.com/2013/01/16/python-multiprocessing-module-and-closures/。