如何重置/清除 aiohttp 会话



我一直在使用 aiohttp 和反向连接代理进行一些测试(IP 在每个请求上都会更改)。使用反向连接代理的最大问题是有时您没有得到一个好的代理。无论如何,无论如何,我仍然需要对该特定 URL 的请求。我创建了一个请求 http://ip4.me 10,000 次并检索 IP 地址的示例。一切在开始时都有效,但最终,它开始出现错误:

赋值前引用的局部变量"ip">

此错误的原因是因为我在请求后得到的页面是某个重定向页面,它将您带到某个随机站点。这是 HTML(真的无关紧要,但我想我会描绘全貌)。

<html><head><meta content="2;url=http://ip4.me/?" http-equiv="refresh"/></head><body><iframe frameborder="0" id="f" style="width:1;height:1"></iframe><script>document.getElementById("f").src="http://168.126.130.229/tm/?a=CR&b=WIN&c=300017519516&d=32&e=2205&f=aXA0Lm1l&g=1520816781875&h="+Date.now()+"&y=0&z=0&x=1&w=2017-11-29&in=2205_00002350&id=20180312"</script></body></html>

我猜我得到这个页面是因为它是对这么多请求或类似内容的某种防御?现在通常当我收到请求错误时(代理错误、加载时间过长等)。我只是不断尝试,直到得到良好的响应(在此示例运行时,90% 的时间都有效)。就像我之前提到的,在最后(当可能还有 10 个请求要发出时)。它将继续获取我上面发布的 HTML 和我在上面发布的错误。这将一遍又一遍地发生。

我可以认为这种情况发生的唯一原因是正在使用相同的会话,因此网站以某种方式知道这一点,并且只是不断给我这个重定向页面(永远不允许它脱离 While 循环)。当然,可能还有另一个原因。如果有人对为什么会发生这种情况有任何见解?或者甚至可能是重试请求的更好方法(如果我得到一个错误的代理等),这将不胜感激!以下是我的完整工作示例,如果您有任何问题,请告诉我。谢谢你的时间!

import asyncio
import aiohttp
from bs4 import BeautifulSoup
from datetime import datetime
from aiohttp.resolver import AsyncResolver
class Proxy:
def __init__(self, headers, proxy):
self.headers = headers
self.proxy = proxy
async def build(self, dataset):
tasks = []
resolver = AsyncResolver(nameservers=["8.8.8.8", "8.8.4.4"])
connector = aiohttp.TCPConnector(limit=1500, limit_per_host=0, resolver=resolver, use_dns_cache=False)
async with aiohttp.ClientSession(connector=connector) as session:
for data in range(0,dataset):
task = asyncio.ensure_future(self.fetch(session, data))
tasks.append(task)
r = await asyncio.gather(*tasks)
return r
async def fetch(self, session, data):
while True:
try:
async with session.get('http://ip4.me', headers=self.headers, proxy=self.proxy, timeout=60, ssl=False, allow_redirects=False) as resp:
assert resp.status == 200
r = await resp.read()
soup = BeautifulSoup(r, 'lxml')
for font in soup.find_all('font'):
ip = font.text
print (data, ip)
return ip
except Exception as e:
print (e)
if __name__ == '__main__':
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Safari/537.36'}
proxy = 'XXX.XX.X.XXX:XXXXX'
proxy = "http://{}".format(proxy)
dataset = 10000
px = Proxy(headers, proxy)
startTime = datetime.now()
loop = asyncio.new_event_loop()
asyncio.set_event_loop(loop)
future = asyncio.ensure_future(px.build(dataset))
ip = loop.run_until_complete(future)
loop.close()
print (datetime.now() - startTime)

爬行是一个很大的话题。

在您的表达式中,我想象您每个请求都使用不同的代理。但是在您的代码中,我认为您为每个请求使用相同的代理和相同的标头。

因此,在这种情况下,无论您如何在python代码中更改会话,服务器都很容易识别您。因为您的 IP 从未改变。够了。当服务器认为你应该被禁止时,它会禁止你的IP,然后无论你如何尝试,你都会被完全阻止。

一些网站提供专业的服务来解决抓取禁止。它们对一段时间内的每个不同请求使用不同的代理。他们使用随机生成的用户代理来装扮成不同的浏览器。他们还使用庞大的数据库来决定相关的策略。

所以这并不容易。如果您尝试获取一点数据,则可以放慢速度。

使用新会话

....
resolver = AsyncResolver(nameservers=["8.8.8.8", "8.8.4.4"])
connector = aiohttp.TCPConnector(limit=1500, limit_per_host=0, resolver=resolver, use_dns_cache=False, force_close=True)
sessions = []
for data in range(0,dataset):
session = aiohttp.ClientSession(connector=connector)
task = asyncio.ensure_future(self.fetch(session, data))
tasks.append(task)
sessions.append(session)
r = await asyncio.gather(*tasks)
[session.close() for session in sessions]
return r
....

force_close=True可能毫无用处,因为您为每个请求使用不同的会话。

最新更新