使用 automl 模型服务器通过 docker 部署 AutoML 模型的问题:"Not found: Op type not registered 'DecodeProtoSparseV4'"



我已经在GC AutoML表中训练了模型,并使用以下指令部署它https://cloud.google.com/automl-tables/docs/model-export

我用saved_model导出了模型文件夹。docker

docker run -v `pwd`/my_model:/models/default/0000001 -p 8000:8080 -it gcr.io/cloud-automl-tables-public/model_server

cannot start with error

Loading servable: {name: default version: 1} failed: Not found: Op type not registered 'DecodeProtoSparseV4' in binary running on 61894e77342e. Make sure the Op and Kernel are registered in the binary running in this process. Note that if you are loading a saved graph which used ops from tf.contrib, accessing (e.g.) `tf.contrib.resampler` should be done before importing the graph, as contrib ops are lazily registered when the module is first accessed.

我有另一个几周前训练过的模型,它工作得很好,但是新的模型在相同的部署步骤下失败了。

正如我所看到的,这可能是训练模型和部署环境的工具版本的问题,但我没有任何控制或关于使用哪个版本的tensorflow或struct2tensor的信息。

我成功地使用最新的s2t_tf_serving启动docker模型,但仍然/预测请求失败错误。

我能做些什么使它工作吗?

乌利希期刊指南

使用新版本的model_server,问题消失了。

您可以删除model_server映像并尝试使用最新的

吗?
docker run -v `pwd`/my_model:/models/default/0000001 -p 8000:8080 -it gcr.io/cloud-automl-tables-public/model_server:latest

相关内容

最新更新