Python - 如何将全局变量传递给多处理.过程



我需要在一段时间后终止一些进程,所以我使用了休眠另一个进程来等待。但是我猜新进程无法访问主进程的全局变量。请问我该怎么解决?

法典:

import os
from subprocess import Popen, PIPE
import time
import multiprocessing

log_file = open('stdout.log', 'a')
log_file.flush()
err_file = open('stderr.log', 'a')
err_file.flush()
processes = []

def processing():
    print "processing"
    global processes
    global log_file
    global err_file
    for i in range(0, 5):
        p = Popen(['java', '-jar', 'C:\Users\two\Documents\test.jar'], stdout=log_file, stderr=err_file) # something long running
        processes.append(p)
    print len(processes)    # returns 5
def waiting_service():
    name = multiprocessing.current_process().name
    print name, 'Starting'
    global processes
    print len(processes)    # returns 0
    time.sleep(2)
    for i in range(0, 5):
        processes[i].terminate()
    print name, 'Exiting'
if __name__ == '__main__':
    processing()
    service = multiprocessing.Process(name='waiting_service', target=waiting_service)
    service.start()

您应该使用同步基元。

您可能想设置一个由主(父)进程在一段时间后触发的Event

您可能还希望等待进程实际完成并join它们(就像处理线程一样)。

如果有许多类似的任务,则可以使用类似 multiprocessing.Pool 的处理池。

下面是一个如何完成的小示例:

import multiprocessing
import time
kill_event = multiprocessing.Event()
def work(_id):
    while not kill_event.is_set():
        print "%d is doing stuff" % _id
        time.sleep(1)
    print "%d quit" % _id
def spawn_processes():
    processes = []
    # spawn 10 processes
    for i in xrange(10):
        # spawn process
        process = multiprocessing.Process(target=work, args=(i,))
        processes.append(process)
        process.start()
        time.sleep(1)
    # kill all processes by setting the kill event
    kill_event.set()
    # wait for all processes to complete
    for process in processes:
        process.join()
    print "done!"
spawn_processes()

整个问题出在Windows的Python上。Python for Windows 阻止了要在函数中看到的全局变量。我已经切换到 linux,我的脚本工作正常。

特别感谢@rchang的评论:

当我测试它时,在这两种情况下,print 语句都得出了 5。也许我们以某种方式存在版本不匹配?我在Linux内核3.13.0(Mint发行版)上使用Python 2.7.6对其进行了测试。

相关内容

  • 没有找到相关文章

最新更新