当我在子进程中使用 python-requests 时,我的 Python 程序意外退出



在我的蜘蛛项目中,我有一个代码段落,就是抓取"新浪微博"这个最热门的主题链接,它会养活我的蜘蛛。当我单独测试它时,它可以完美运行。但是,当我在进程中使用它们时,代码段落会导致 python 意外退出。我发现失败的原因是我在代码段落中使用了python请求。因此,当我通过urllib3重写它时,它可以正常工作。

这段代码在我的macOS Mojava中运行。Python 版本是"3.7",python-requests 版本是"2.21.0"。

"""
The run_spider function periodically crawls the link and feed to the spiders
"""
@staticmethod
def run_spider():
    try:
        cs = CoreScheduler()
        while True:
            cs.feed_spider()
            first_time = 3 * 60
            while not cs.is_finish():
                time.sleep(first_time)
                first_time = max(10, first_time // 2)
            cs.crawl_done()
            time.sleep(SPIDER_INTERVAL)
    except Exception as e:
        print(e)
"""
The cs.feed_spider() just crawl and parse the page, it will return a generator of links. The code is shown below.
"""
def get_page(self):
    headers = {
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
        'Accept-Language': 'zh-cn',
        'Host': 's.weibo.com',
        'Accept-Encoding': 'br, gzip, deflate',
        "User-Agent": 'Mozilla/5.0 (iPhone; CPU iPhone OS 11_3) AppleWebKit/605.1.15
         (KHTML, like Gecko) Version/11.0 Mobile/15E148 Safari/604.1',
        }
    # res = requests.get(self.TARGET_URL, headers=headers)
    http = urllib3.PoolManager()
    res = http.request("GET", self.TARGET_URL, headers=headers)
    if 200 == res.status:
        return res.data
    else:
        return None
"""
The crawler will become a child process. like below.
"""
def run(self):
    spider_process = Process(target=Scheduler.run_spider)
    spider_process.start()

我希望使用 python-request 会起作用,但它导致程序意外退出。当我使用 urllib3 重写代码时,程序运行良好。我不明白为什么。

你开始了这个过程,但我看不到你在等待它。join(( 函数将导致主线程暂停执行,直到spider_process线程完成执行。

def run(self):
    spider_process = Process(target=Scheduler.run_spider)
    spider_process.start()
    spider_process.join()

这是官方 join(( 文档的链接:https://docs.python.org/3/library/threading.html#threading.Thread.join

相关内容

  • 没有找到相关文章

最新更新