Dockerized Celery worker 未从 Localstack SQS 队列中获取任务



我正在用芹菜构建一个用于后台任务的烧瓶应用程序。我的应用程序正在使用在 docker 容器中运行的本地堆栈来为我的消息代理在本地模拟 SQS。我已经让烧瓶和芹菜在本地运行以与 localstack 正常工作,我可以看到烧瓶接收请求,将消息添加到 SQS 队列,然后芹菜拿起该任务并执行它。

我尝试将烧瓶和芹菜与本地堆栈一起 docker化,我的所有服务都按预期运行,除了不执行队列中任务的芹菜工人。我可以在本地启动一个芹菜工作器,它将读取队列并执行任务,但码头工人芹菜工人不会拉取任何任务。

在烧瓶容器中运行芹菜工人达到了相同的结果,并添加了我在此 github 线程中找到的--without-gossip等参数。

我是否在 docker 架构中缺少一些使芹菜不从 SQS 队列中提取的内容?

这是我的docker-compose.yml:


services:
dev:
build:
context: .
dockerfile: 'dev.Dockerfile'
ports:
- "5050:5000"
restart: always
volumes:
- .:/app
environment:
- GUNICORN_CMD_ARGS="--reload"
- docker_env=true
stdin_open: true
tty: true
command: ./entrypoint.sh
depends_on: 
- localstack
# mimics AWS services locally
localstack:
image: localstack/localstack:latest
ports:
- '4561-4599:4561-4599'
- '8080:8080'
environment:
- SERVICES=sqs
- DEBUG=1
- DATA_DIR=/tmp/localstack/data
volumes:
- './.localstack:/tmp/localstack'
restart: always
celery:
build:
context: .
dockerfile: 'dev.Dockerfile'
volumes:
- .:/app
environment: 
- docker_env=true
stdin_open: true
tty: true
command: ./celeryworker.sh
restart: always
links:
- localstack
depends_on:
- localstack

volumes:
.:

dev.dockerfile:

FROM python:3.6
USER root
# Environment Variables
ENV HOST 0.0.0.0
ENV PORT 5000
# Install Packages
COPY requirements.txt /requirements.txt
RUN /bin/bash -c "python3 -m venv docker 
&& source docker/bin/activate 
&& pip3 install --upgrade pip 
&& pip3 install -r requirements.txt"
# Source Code
WORKDIR /app
COPY . .
COPY app/gunicorn_config.py /deploy/app/gunicorn_config.py
COPY entrypoint.sh /bin/entrypoint.sh
COPY celeryworker.sh /bin/celeryworker.sh

USER nobody
EXPOSE 5000
CMD ["bash"]

entrypoint.sh:

source ../docker/bin/activate
gunicorn -c app/gunicorn_config.py --bind 0.0.0.0:5000 'app:create_app()'

celeryworker.sh

source ../docker/bin/activate
celery worker -A app.celery_worker.celery

celeryconfig.py

import os
BROKER_URL = 'sqs://fake:fake@localhost:4576/0'     # local sqs
# BROKER_URL = 'redis://localhost:6379/0'     # local redis
# RESULT_BACKEND = 'redis://localhost:6379/0'     # local redis
if os.getenv('docker_env', 'local') != 'local':
BROKER_URL = 'sqs://fake:fake@localstack:4576/0'
BROKER_TRANSPORT_OPTIONS = {'queue_name_prefix': 'app-'}

我在本地使用相同的命令,一切都按预期运行。我还重新创建了我的本地虚拟环境,以确保我的requirements.txt中没有额外的包

通过在 localstack 环境变量中设置HOSTNAMEHOSTNAME_EXTERNAL来解决此问题。通过在localhostlocalstack之间更改两者,我可以让我的本地或码头工人拉动任务。

与 Celery 相关,但使用 S3 而不是 SQS,具体取决于请求是在主机上处理的,还是从 docker 服务中处理的,AWS 客户端可能需要使用终端节点 URL 显式实例化。

例如,在 Python 中使用boto3

# client instantiated from within Celery service running as a Docker service:
client = boto3.client(
service_name="s3",
endpoint_url="http://localstack:4566", # <= localstack
)
# client instantiated in application, whether running on host or
# as Docker service
client = boto3.client(
service_name="s3",
endpoint_url="http://localhost:4566", # <= localhost
)

相关内容

  • 没有找到相关文章

最新更新