MLflow部署可能性之间的差异



有人能解释一下在决定如何从MLflow:服务模型时的主要用例是什么吗

  • 使用命令行";mlflow模型服务于-m">
  • 部署具有相同模型的本地Docker容器
  • 在线部署模型,例如在AWS Sagemaker上

我主要对选项A和选项B之间的差异感兴趣,因为据我所知,两者都可以作为REST API端点访问。我认为,如果网络规则已经到位,那么两者也可以从外部调用。

Imho,文档中描述了主要区别:

NB:默认情况下,容器将启动nginx和gunicorn进程。如果你不需要启动nginx进程(例如,如果你将容器部署到Google Cloud Run(,你可以通过disable_nginx环境变量禁用它

并且model serve仅使用Flask,因此其可扩展性可能较低。

最新更新