AWS Lambda 和 Python 中的 Open CV 的无服务器问题



我正在开发一个微服务来分析上传到 S3 AWS 存储桶的图像。我正在使用无服务器框架。我正在使用 virtualenv 安装带有 PIP 和无服务器 python-requirements插件的依赖项,以将这些依赖项部署到 Lambda 函数。

但是,由于缺少 .so 文件,我在部署微服务时遇到错误。我得到的错误是

无法导入模块"handlers.image":libgthread-2.0.so.0:无法打开共享对象文件:没有这样的文件

我的无服务器 .yml 文件是

service: sls-covid
provider:
name: aws
runtime: python3.8
profile: testuser
stage: ${opt:stage, 'staging'}
environment: ${file(environment.yml):${self:provider.stage}}
region: ${self:provider.environment.REGION}
iamRoleStatements:
# para poder leer y escribir en el bucket
- Effect: "Allow"
Action:
- "s3:*"
Resource: "*"
custom:
pythonRequirements:
dockerizePip: non-linux

package:
individually: true
exclude:
- node_modules/**
- env/**
- package.json
- package-lock.json
functions:
analyzeImage:
# para analizar la imagen cuando se almacena en S3
handler: handlers.image.analyze
events:
- s3:
bucket: ${self:service}-${self:provider.stage}-images
event: s3:ObjectCreated:*
rules:
- prefix: uploads/
plugins:
- serverless-python-requirements

相关代码为:

import json
import logging
import boto3
from pydicom import dcmread
import numpy as np
# here the code stops working
import cv2
from pydicom.filebase import DicomBytesIO
logger = logging.getLogger()
logger.setLevel(logging.INFO)
s3 = boto3.client('s3')

def analyze(event, context):
print("=== event: ", event)
# code to read uploaded image from bucket and create a ds object 
# code below is never executed since the error appears when the cv2 library is loaded  
img = cv2.resize(ds.pixel_array, (224, 224))

而我的要求.txt内容如下:

numpy==1.18.4
opencv-python==4.2.0.34
pandas==1.0.3
pydicom==1.4.2
python-dateutil==2.8.1
pytz==2018.7
six==1.14.0

我的问题是。如何使用插件将 opencv 依赖项正确上传到我的 lambda 函数?我应该以另一种方式执行此操作吗?

谢谢!

根据文档,您需要使用dockerExtraFiles选项手动包含这些内容。

=====================更新 ===

==========================打包 Python 依赖项并为 AWS Lambda 构建部署包可能非常棘手。四处挖掘后,您需要做以下事情才能使其正常工作。

第 1 步:添加Dockerfile

FROM lambci/lambda:build-python3.8
RUN yum -y install libXext libSM libXrender

步骤 2:修改serverless.yml

service: sls-covid
provider:
name: aws
runtime: python3.8
profile: testuser
stage: ${opt:stage, 'staging'}
environment: ${file(environment.yml):${self:provider.stage}}
region: ${self:provider.environment.REGION}
iamRoleStatements:
# para poder leer y escribir en el bucket
- Effect: "Allow"
Action:
- "s3:*"
Resource: "*"
custom:
pythonRequirements:
dockerizePip: non-linux
########### BEGIN ###########
dockerFile: Dockerfile
dockerExtraFiles:
- /lib64/libgthread-2.0.so.0
- /lib64/libglib-2.0.so.0
- /lib64/libSM.so.6
- /lib64/libICE.so.6
- /lib64/libXrender.so.1
- /lib64/libXext.so.6
- /lib64/libX11.so.6
- /lib64/libuuid.so.1
- /lib64/libxcb.so.1
- /lib64/libXau.so.6
########### END ###########

package:
individually: true
exclude:
- node_modules/**
- env/**
- package.json
- package-lock.json
functions:
analyzeImage:
# para analizar la imagen cuando se almacena en S3
handler: handlers.image.analyze
events:
- s3:
bucket: ${self:service}-${self:provider.stage}-images
event: s3:ObjectCreated:*
rules:
- prefix: uploads/
plugins:
- serverless-python-requirements

第 3 步:你好世界测试

$ sls invoke -f analyzeImage --log
null
--------------------------------------------------------------------
START RequestId: 00ccd940-cf8a-46ed-8671-65e597f997a0 Version: $LATEST
=== event:  {}
END RequestId: 00ccd940-cf8a-46ed-8671-65e597f997a0
REPORT RequestId: 00ccd940-cf8a-46ed-8671-65e597f997a0  Duration: 1.41 ms   Billed Duration: 100 ms Memory Size: 1024 MB    Max Memory Used: 121 MB Init Duration: 916.32 ms

希望对您有所帮助。

我遇到了同样的问题。 我冒险做的是:

  1. 在 EC2 Linux 实例上开发。 这要容易得多,因为在部署之前进行开发时会遇到所有错误。
  2. 查找丢失的 .so 文件。查找 。 -名称 "libgthread-2.0.so.0">
  3. 在项目主页中制作一个名为 lib 的目录,名为"lib"。 此文件夹包含在LD_LIBRARY_PATH中。
  4. 将所需的 libgthread-2.0.so.0 文件复制到 lib 文件夹中。
  5. SLS 部署。 现在找到了丢失的 .so 文件。

相关内容

  • 没有找到相关文章

最新更新