模型服务器容器内存不足-顶点AI



我试图使用scikit-learn 1.0版本部署一个简单的支持向量回归(SVR)模型到顶点AI,但我遇到以下错误:

Failed to create endpoint "adpool_eval" due to the error: model server container out of memory,
please use a larger machine type for model deployment: 
https://cloud.google.com/vertex-ai/docs/predictions/configure-compute#machine-types.

模型保存为"model.joblib"在云存储桶中,根据顶点AI的要求。

这个模型是非常小和简单的,所以我不明白它是如何耗尽内存的。我尝试了RAM和cpu更多的机器,但这个问题仍然存在。云存储桶、模型注册中心和端点都在同一个区域(europe-west1)。

问题似乎是使用joblib库保存模型。我使用了pickle库,并且成功地在n1标准机器上部署了相同的模型,没有出现任何问题。

最新更新