Multiprocessing: PyObject_Call的NULL结果没有错误



下面是我使用多处理的示例程序。用multiprocessing.Process进行计算,用multiprocessing.Queue收集计算结果。

#THIS PROGRAM RUNS WITH ~40Gb RAM. (you can reduce a,b,c for less RAM 
#but then it works for smaller values)
#PROBLEM OCCURS ONLY FOR HUGE DATA.   
from numpy import *
import multiprocessing as mp
a = arange(0, 3500, 5)
b = arange(0, 3500, 5)
c = arange(0, 3500, 5)  
a0 = 540. #random values
b0 = 26.
c0 = 826.
def rand_function(a, b, c, a0, b0, c0):
    Nloop = 100.
    def loop(Nloop, out):
        res_total = zeros((700, 700, 700), dtype = 'float') 
        n = 1
        while n <= Nloop:
            rad = sqrt((a-a0)**2 + (b-b0)**2 + (c-c0)**2)
            res_total += rad
            n +=1 
        out.put(res_total)
    out = mp.Queue() 
    jobs = []
    Nprocs = mp.cpu_count()
    print "No. of processors : ", Nprocs
    for i in range(Nprocs):
        p = mp.Process(target = loop, args=(Nloop/Nprocs, out)) 
        jobs.append(p)
        p.start()
    final_result = zeros((700, 700, 700), dtype = 'float')
    for i in range(Nprocs):
        final_result = final_result + out.get()
    p.join()
test = rand_function(a,b,c,a0, b0, c0)

错误信息如下:

Traceback (most recent call last):
  File "/usr/lib/python2.7/multiprocessing/queues.py", line 266, in _feed
    send(obj)
SystemError: NULL result without error in PyObject_Call

我在这里读到这是一个bug。但我无法理解。谁能告诉我任何方法来计算使用多处理的巨大数据?

非常感谢

您参考的错误报告指出multiprocessing模块无法将大参数推入子进程。

原因是它需要pickle这些参数,并将pickle后的blob存储在内存的某个地方。

不需要将数组作为参数传递。

可能的原因:

  • 传递闭包loop作为目标
  • 传递mp.Queue()作为参数

关于将闭包转换为类,请参阅http://stevenengelhardt.com/2013/01/16/python-multiprocessing-module-and-closures/。

相关内容

  • 没有找到相关文章

最新更新