共享内存 - 全局值的 Python 多处理共享



我要做的是每个进程都使用全局变量。但我的过程没有采用全局值

import multiprocessing
count = 0 
def smile_detection(thread_name):
    global count
    for x in range(10):
        count +=1
        print thread_name,count
    return count    
x = multiprocessing.Process(target=smile_detection, args=("Thread1",))
y = multiprocessing.Process(target=smile_detection, args=("Thread2",))
x.start()
y.start()

我得到的输出是这样的

Thread1 1
Thread1 2
.
.
Thread1 9
Thread1 10
Thread2 1
Thread2 2
.
.
Thread2 9
Thread2 10

我想要的是

Thread1 1
Thread1 2
.
.
Thread1 9
Thread1 10
Thread2 11
Thread2 12
.
.
Thread2 19
Thread2 20

我必须做什么才能实现这一目标?

与线程不同,由于新进程的分叉(或生成),多处理共享状态有点棘手。尤其是在窗户上。要拥有共享对象,请使用多处理。数组或多处理。价值。对于数组,您可以在每个进程中取消引用其在另一个结构中的内存地址,例如 numpy 数组。在您的情况下,我会做这样的事情:

import multiprocessing, ctypes
count = multiprocessing.Value(ctypes.c_int, 0)  # (type, init value)
def smile_detection(thread_name, count):
    for x in range(10):
        count.value +=1
        print thread_name,count
    return count    
x = multiprocessing.Process(target=smile_detection, args=("Thread1", count))
y = multiprocessing.Process(target=smile_detection, args=("Thread2", count))
x.start()
y.start()

尝试这样做:

import multiprocessing
def smile_detection(thread_name, counter, lock):
    for x in range(10):
        with lock:
            counter.value +=1
            print thread_name, counter.value  

count = multiprocessing.Value('i',  0)
lock = multiprocessing.Lock()
x = multiprocessing.Process(target=smile_detection, args=("Thread1", count, lock))
y = multiprocessing.Process(target=smile_detection, args=("Thread2", count, lock))
x.start()
y.start()
x.join()
y.join()

第一个问题是全局变量在进程之间不共享。您需要使用具有某种类型的线程安全锁定或同步的机制。我们可以使用 multiprocessing.Value('i', 0) 创建一个线程安全的同步整数值。我们使用multiprocessing.Lock()来确保一次只有一个线程可以更新计数器。

如果真的想使用全局变量,可以使用 multiprocessing.Manager() ,它可以保留在全局变量中:

import multiprocessing
count = multiprocessing.Manager().Value('i',  0)
lock = multiprocessing.Manager().Lock()
def smile_detection(thread_name):
    global count, lock
    for x in range(10):
        with lock:
            counter.value +=1
            print thread_name, counter.value  
x = multiprocessing.Process(target=smile_detection, args=("Thread1",))
y = multiprocessing.Process(target=smile_detection, args=("Thread2",))
x.start()
y.start()
x.join()
y.join()

但是,就个人而言,我更喜欢第一种方法,因为Manager()使这过于复杂。

这是现在的输出:

$ python test.py
Thread1 1
Thread1 2
Thread1 3
Thread1 4
Thread1 5
Thread1 6
Thread1 7
Thread1 8
Thread1 9
...
Thread2 15
Thread2 16
Thread2 17
Thread2 18
Thread2 19
Thread2 20

要在进程之间共享数据,您需要让mutiprocessing.Manager管理共享数据:

count = multiprocessing.Manager().Value('i', 0) # creating shared variable
lock = multiprocessing.Manager().Lock() # we'll use lock to acquire lock on `count` before count += 1
def smile_detection(thread_name):
    global count
    for x in range(10):
        lock.acquire()
        count +=1
        lock.release()
        print thread_name,count
    return count   

您可以使用multiprocessing.Value

返回从共享内存分配的 ctypes 对象。默认情况下,返回值实际上是对象的同步包装器。

代码如下所示:

import multiprocessing
count = multiprocessing.Value('i', 0)
def smile_detection(thread_name, count):
    for x in range(10):
        count += 1
        print thread_name, count
x = multiprocessing.Process(target=smile_detection, args=("Thread1",count))
y = multiprocessing.Process(target=smile_detection, args=("Thread2",count))
x.start()
y.start()
x.join()
y.join()

请注意,输出可能不是您期望的输出。实际上,在您的预期输出中,Thread 1的所有迭代都位于Thread 2的迭代之前。在多线程应用程序中,情况并非如此。如果你想发生这种情况,好吧,你不希望它被线程化!

最新更新