我有两种类型的任务:异步任务和调度任务。所以,这是我的目录结构:
proj
|
-- tasks
|
-- __init__.py
|
-- celeryapp.py => celery instance defined in this file.
|
-- celeryconfig.py
|
-- async
| |
| -- __init__.py
| |
| -- task1.py => from proj.tasks.celeryapp import celery
| |
| -- task2.py => from proj.tasks.celeryapp import celery
|
-- schedule
|
-- __init__.py
|
-- task1.py => from proj.tasks.celeryapp import celery
|
-- task2.py => from proj.tasks.celeryapp import celery
但当我像下面这样管理芹菜工人时,它不起作用。它不能接受来自芹菜节拍调度器的任务。
$ celery worker --app=tasks -Q my_queue,default_queue
那么,在多任务文件组织方面有什么最佳实践吗?
基于芹菜文档,您可以导入如下芹菜任务的结构:
例如,如果您有一个(想象中的)目录树,如下所示:
|
|-- foo
| |-- __init__.py
| |-- tasks.py
|
|-- bar
|-- __init__.py
|-- tasks.py
然后调用app.autodiscover_tasks(['foo', bar'])
将导致模块foo.tasks和bar.tasks被导入。
Celery任务可以是异步的、同步的或调度的,这取决于其调用
task.delay(arg1,arg2) #will be async
task.delay(arg1,arg2).get() #will be sync
task.delay(arg1,arg2).get() #will be sync
task.apply_async(args = [arg1,arg2], {'countdown' : some_seconds}) #async with delay
根据您的需要,有很多调用
但是,您必须使用-B标志来启动芹菜,才能启用芹菜调度程序
$ celery worker --app=tasks -B -Q my_queue,default_queue
因此,你组织任务的方式是个人的,这取决于你的项目复杂性,但我认为通过同步类型来组织任务不是最好的选择
我在谷歌上搜索了这个主题,没有找到任何指南或建议,但我读到了一些根据功能组织任务的案例
我遵循了这个建议,因为在我的项目中,这不是一种模式。下面是我如何进行的一个例子
your_app
|
-- reports
|
-- __init__.py
-- foo_report.py
-- bar_report.py
-- tasks
|
-- __init__.py
-- report_task.py
-- maintenance
|
-- __init__.py
-- tasks
|
-- __init__.py
-- delete_old_stuff_task.py
-- twitter
|
-- __init__.py
-- tasks
|
-- __init__.py
-- batch_timeline.py