芹菜任务.get()不起作用



我将非常感谢您的帮助!

这是我第一次尝试在Docker容器中与Django一起使用芹菜,经过数小时的阅读和实验,我无法通过此问题。

问题

我可以从polls.task导入任务,并使用.delay()运行,如下所示:

python manage.py shell
from polls.tasks import add
task = add.delay(4,4)

运行此操作时,我可以通过RabbitMQ容器看到一条消息。

如果我执行任务。

但是,如果我运行task.get()程序只会悬挂。我没有在任何容器上采取任何措施,也没有结果。

我还注意到,当我运行dc-up并启动所有容器时,我在工作容器上获得以下输出,这似乎是正确的,包括能够看到我的任务注册:

worker      |  -------------- default@5d0902ad9e2a v4.1.0 (latentcall)
worker      | ---- **** ----- 
worker      | --- * ***  * -- Linux-4.9.87-linuxkit-aufs-x86_64-with-debian-8.10 2018-03-30 09:45:01
worker      | -- * - **** --- 
worker      | - ** ---------- [config]
worker      | - ** ---------- .> app:         composeexample:0x7f2f3255e320
worker      | - ** ---------- .> transport:   amqp://admin:**@rabbitmq:5672//
worker      | - ** ---------- .> results:     redis://redis:6379/0
worker      | - *** --- * --- .> concurrency: 2 (prefork)
worker      | -- ******* ---- .> task events: ON
worker      | --- ***** ----- 
worker      |  -------------- [queues]
worker      |                 .> default          exchange=default(direct) key=default
worker      | 
worker      | [tasks]
worker      |   . polls.tasks.add
worker      | [2018-03-30 10:45:34,722: INFO/MainProcess] Connected to amqp://admin:**@rabbitmq:5672//
worker      | [2018-03-30 10:45:34,746: INFO/MainProcess] mingle: searching for neighbors
worker      | [2018-03-30 10:45:35,799: INFO/MainProcess] mingle: all alone
worker      | [2018-03-30 10:45:35,827: INFO/MainProcess] default@a7d75a442646 ready.

我怀疑我缺少兔子和工人之间的某种形式的交流。我也想知道我是否只是不正确地启动工人,或者根本没有。我真的不知道。

我仔细检查了我的环境变量是在Django和Worker容器中设置的。

设置

我在Docker中有以下设置:Django,Redis(用于后端(,RabbitMQ(用于消息(,PSQL,芹菜(工人单独的容器(

这是我的dockerfile:

FROM python:3
ENV PYTHONUNBUFFERED 1
ADD requirements.txt /code/
WORKDIR /code/
RUN apt-get update && apt-get install -y 
    sudo 
    git
RUN pip install --upgrade pip && pip install -r requirements.txt
# create unprivileged user
RUN adduser --disabled-password --gecos '' myuser

这是我的docker-compose.yml:

version: '3'
services:
  dbtest:
    image: postgres:10.1
    container_name: postgrestest
    expose:
      - "5432"
    volumes:
      - postgres_data:/var/lib/postgresl/data/
    networks:
      - lofi
  redis:
    image: redis:4.0.8
    container_name: redis
    networks:
      - lofi
  rabbitmq:
    image: rabbitmq:3.7.4
    container_name: rabbitmq
    env_file: .env
    ports:
      - "5672:5672"  # we forward this port because it's useful for debugging
      - "15672:15672"  # here, we can access rabbitmq management plugin
    networks:
      - lofi
  django:
    container_name: djcelerytest
    env_file: .env
    build:
      context: .
      dockerfile: Dockerfile
    command: python manage.py runserver 0.0.0.0:8000
    volumes:
      - .:/code
    ports:
      - "8000:8000"
      - "8888:8888"
    depends_on:
      - dbtest
      - rabbitmq
    networks:
      - lofi
  worker:
    env_file: .env
    build:
      context: .
      dockerfile: Dockerfile
    container_name: worker
    command: sh ./run_celery.sh
    volumes:
      - .:/code
    depends_on:
      - rabbitmq
      - redis
    networks:
      - lofi
networks:
  lofi:
volumes:
  postgres_data:
    external: true

我在.env文件中具有以下设置,用于设置Django和Worker容器:

CELERY_BROKER_URL=amqp://admin:mypass@rabbitmq//
CELERY_RESULT_BACKEND=redis://redis:6379/0
RABBITMQ_DEFAULT_USER=admin
RABBITMQ_DEFAULT_PASS=mypass

这是run_celery.sh文件:

#!/bin/sh
# wait for RabbitMQ server to start
sleep 10
# run Celery worker for our project myproject with Celery configuration stored in Celeryconf
su -m myuser -c "celery worker -E -A composeexample.celeryconf -Q default -n default@%h  --loglevel=INFO"

我要运行的任务是在任务中。

from composeexample.celeryconf import app
from .models import AddStore
@app.task
def add(x, y):
    value = x + y
    new = AddStore(value=value)
    new.save()
    return value

事实证明,在 run_celery.sh文件中,我的命令启动芹菜工人包含 -Q default选项,这是根据文档不再存在的选项。

因此,如果您简单地更改此信息:

su -m myuser -c "celery worker -E -A composeexample.celeryconf -Q default -n default@%h  --loglevel=INFO"

su -m myuser -c "celery worker -E -A composeexample.celeryconf -n default@%h  --loglevel=INFO"

我可以无问题致电task.get()

相关内容

  • 没有找到相关文章

最新更新