我们在夜间启动AWS中250个工作节点的集群来处理一些长时间运行的分布式任务。
工作节点正在使用以下命令运行芹菜:
celery -A celery_worker worker --concurrency=1 -l info -n background_cluster.i-1b1a0dbb --without-heartbeat --without-gossip --without-mingle -- celeryd.prefetch_multiplier=1
我们使用rabbitmq作为代理,并且只有1个rabbitmq节点。
大约60%的节点声称正在监听,但不会接收任何任务。
他们的日志是这样的:
-------------- celery@background_cluster.i-1b1a0dbb v3.1.18 (Cipater)
---- **** -----
--- * *** * -- Linux-3.2.0-25-virtual-x86_64-with-Ubuntu-14.04-trusty
-- * - **** ---
- ** ---------- [config]
- ** ---------- .> app: celery_worker:0x7f10c2235cd0
- ** ---------- .> transport: amqp://guest:**@localhost:5672//
- ** ---------- .> results: disabled
- *** --- * --- .> concurrency: 1 (prefork)
-- ******* ----
--- ***** ----- [queues]
-------------- .> background_cluster exchange=root(direct) key=background_cluster
[tasks]
. more.celery_worker.background_cluster
[2015-10-10 00:20:17,110: WARNING/MainProcess] celery@background_cluster.i-1b1a0dbb
[2015-10-10 00:20:17,110: WARNING/MainProcess] consuming from
[2015-10-10 00:20:17,110: WARNING/MainProcess] {'background_cluster': <unbound Queue background_cluster -> <unbound Exchange root(direct)> -> background_cluster>}
[2015-10-10 00:20:17,123: INFO/MainProcess] Connected to amqp://our_server:**@10.0.11.136:5672/our_server
[2015-10-10 00:20:17,144: WARNING/MainProcess] celery@background_cluster.i-1b1a0dbb ready.
但是,rabbitmq显示队列中有消息等待。
如果我登录到任何工作节点并发出以下命令:
celery -A celery_worker inspect active
…然后,每个(先前停止的)工作节点立即获得一个任务并开始启动。
知道为什么吗?
可能与这些开关有关吗?
--without-heartbeat --without-gossip --without-mingle
原来这是一个bug在芹菜使用--without-gossip
保持事件排水。芹菜对八卦的实现是相当新的,它显然隐式地处理排水事件,但是当你关闭它时,事情就会变得有点不稳定。
这个问题的细节概述在这个github问题:https://github.com/celery/celery/issues/1847
Master目前在此PR中有修复:https://github.com/celery/celery/pull/2823
你可以用三种方法解决这个问题:
- 使用gossip (remove—without-gossip)
- 用https://github.com/celery/celery/pull/2823.patch 修补你的芹菜版本
- 使用cron作业定期运行
celery inspect active