我们使用芹菜获取不同旅行的航班数据代理,每个请求大约需要20-30秒(大多数代理需要请求序列-授权、发送请求、轮询结果)。
正常芹菜任务看起来像这样:
from eventlet.green import urllib2, time
def get_results(attr, **kwargs):
search, provider, minprice = attr
data = XXX # prepared data
host = urljoin(MAIN_URL, "RPCService/Flights_SearchStart")
req = urllib2.Request(host, data, {'Content-Type': 'text/xml'})
try:
response_stream = urllib2.urlopen(req)
except urllib2.URLError as e:
return [search, None]
response = response_stream.read()
rsp_host = urljoin(MAIN_URL, "RPCService/FlightSearchResults_Get")
rsp_req = urllib2.Request(rsp_host, response, {'Content-Type':
'text/xml'})
ready = False
sleeptime = 1
rsp_response = ''
while not ready:
time.sleep(sleeptime)
try:
rsp_response_stream = urllib2.urlopen(rsp_req)
except urllib2.URLError as e:
log.error('go2see: results fetch failed for %s IOError %s'%
(search.id, str(e)))
else:
rsp_response = rsp_response_stream.read()
try:
rsp = parseString(rsp_response)
except ExpatError as e:
return [search, None]
else:
ready = rsp.getElementsByTagName('SearchResultEx')
[0].getElementsByTagName('IsReady')[0].firstChild.data
ready = (ready == 'true')
sleeptime += 1
if sleeptime > 10:
return [search, None]
hash = "%032x" % random.getrandbits(128)
open(RESULT_TMP_FOLDER+hash, 'w+').write(rsp_response)
# call to parser
parse_agent_results.apply_async(queue='parsers', args=[__name__,
search, provider, hash])
该任务在具有一致性的事件集池300中运行,prefetch_multiplier = 1
、broker_limit = 300
当从队列中提取约100-200个任务时,CPU使用率将提高到100%(使用整个CPU核心)并执行从队列中提取任务延迟。
你能指出可能的问题吗操作(eventlet ALARM DETECTOR
没有给出异常),错误建筑或其他什么。
如果向服务器发送200个请求,则会出现问题,响应可能会延迟,因此urlib.urlopen将挂起。
我注意到的另一件事是:如果引发URLError,程序将保持while循环,直到睡眠时间大于10。因此,URLError错误将使该脚本睡眠55秒(1+2+3.etc)
很抱歉延迟回复。
在这种情况下,我首先要尝试的是在Celery和您的代码中完全关闭Eventlet,使用进程或OS线程模型。300个线程甚至进程对于OS调度器来说并不是那么大的负载(尽管您可能缺乏运行许多进程的内存)。所以我会尝试一下,看看CPU负载是否会急剧下降。如果它没有,那么问题就出现在你的代码中,Eventlet无法神奇地修复它。然而,如果它确实下降了,我们需要更仔细地调查这个问题。
如果错误仍然存在,请通过以下任何方式报告:
- https://bitbucket.org/which_linden/eventlet/issues/new
- https://github.com/eventlet/eventlet/issues/new
- 电子邮件至eventletdev@lists.secondlife.com