在调度任务中写入文件



我有一个python脚本,爬行网络每10秒(调度任务),我需要的数据保存在一个文件格式。问题是我只能保存最后一组数据。我猜其他的数据被日程任务覆盖了。

import sched
import time
from bs4 import BeautifulSoup
import requests
import datetime
scheduler = sched.scheduler(time.time, time.sleep)
url = 'https://in.finance.yahoo.com/q?s=AAPL'
def execute_async_task(address):
    requested = requests.get(address)
    data = requested.text
    soup = BeautifulSoup(data, 'html.parser')
    for link in soup.findAll('span', {'id': 'yfs_l84_aapl'})[0]:
        if link:
            f = open('PlotData.txt', 'w')
            f.write("stock_price:"+str(link)+"n")
            time.sleep(0.05)
            scheduler.enter(10, 1, execute_async_task, (url,))

scheduler.enter(0, 1, execute_async_task, (url,))
scheduler.run()

我对python比较陌生

f = open('PlotData.txt', 'a')代替f = open('PlotData.txt', 'w')

'w':覆盖现有文件

'a':追加到文件

中的现有数据

相关内容

  • 没有找到相关文章

最新更新