中的现有数据
我有一个python脚本,爬行网络每10秒(调度任务),我需要的数据保存在一个文件格式。问题是我只能保存最后一组数据。我猜其他的数据被日程任务覆盖了。
import sched
import time
from bs4 import BeautifulSoup
import requests
import datetime
scheduler = sched.scheduler(time.time, time.sleep)
url = 'https://in.finance.yahoo.com/q?s=AAPL'
def execute_async_task(address):
requested = requests.get(address)
data = requested.text
soup = BeautifulSoup(data, 'html.parser')
for link in soup.findAll('span', {'id': 'yfs_l84_aapl'})[0]:
if link:
f = open('PlotData.txt', 'w')
f.write("stock_price:"+str(link)+"n")
time.sleep(0.05)
scheduler.enter(10, 1, execute_async_task, (url,))
scheduler.enter(0, 1, execute_async_task, (url,))
scheduler.run()
我对python比较陌生
用f = open('PlotData.txt', 'a')
代替f = open('PlotData.txt', 'w')
'w':覆盖现有文件
'a':追加到文件