通读谷歌的文档,似乎有两种不同的方式从PyTorch模型中提供预测。
- 使用自定义预测例程
- 创建自定义容器并使用
torchserve
尽管选项1似乎更受欢迎,但不使用选项2似乎很奇怪,因为文档明确提到了PyTorch。
谁能提供为什么一个人可能会选择一个选项而不是另一个?
1更简单,因为您不必担心创建HTTP处理程序,但可能更难在本地进行测试。
2你构建了自己的容器,所以你可以先在本地运行它。这是稍微多一点的工作,因为你必须能够设置一个http处理程序。