通过使用启动启动来呈现整个目标页面对整个网站进行爬网时出现问题。某些页面不是随机的,因此我在渲染作业完成后获取支持存在的信息是错误的。这意味着我只是从渲染结果中获取部分信息,尽管我可以从其他渲染结果中获取全部信息。
这是我的代码:
yield SplashRequest(url,self.splash_parse,args = {"wait": 3,},endpoint="render.html")
settings:
SPLASH_URL = 'XXX'
DOWNLOADER_MIDDLEWARES = {
'scrapy_splash.SplashCookiesMiddleware': 723,
'scrapy_splash.SplashMiddleware': 725,
'scrapy.downloadermiddlewares.httpcompression.HttpCompressionMiddleware': 810,
}
# Enable SplashDeduplicateArgsMiddleware:
SPIDER_MIDDLEWARES = {
'scrapy_splash.SplashDeduplicateArgsMiddleware': 100,
}
# Set a custom DUPEFILTER_CLASS:
DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter
# a custom cache storage backend:
HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage'
我回复
这么晚是因为这个问题没有答案,而且因为它在谷歌搜索中可见。
我遇到了类似的问题,我发现的唯一解决方案(除了增加wait
参数,这可能有效,也可能无效,但不可靠(是使用 execute
端点和自定义 lua 脚本来等待元素。如果这听起来不必要地复杂,那么在我看来,Scrapy 和 Splash 的设计并不好,但我还没有发现更好的满足我的需求。
我的 Lua 脚本看起来像这样:
lua_base = '''
function main(splash)
splash:init_cookies(splash.args.cookies)
splash:go(splash.args.url)
while not splash:select("{}") do
splash:wait(0.1)
end
splash:wait(0.1)
return {{
cookies = splash:get_cookies(),
html=splash:html()
}}
end
'''
css = 'table > tr > td.mydata'
lua_script = lua_base.format(css)
我生成这样的请求:
yield SplashRequest(link, self.parse, endpoint='execute',
args={
'wait': 0.1,
'images': 0,
'lua_source': lua_script,
})
它非常丑陋,但它有效。