如何在本地Amazon Sagemaker上部署我在Amazon Sagemaker培训的模型



我在亚马逊Sagemaker上使用AWS BlazingText算法训练了一个模型,我能够使用SageMaker部署端点。但是,在我的情况下,这不是成本效益,我想在本地运行它。我发现有关此的文档令人困惑。

我所拥有的是从我的S3存储桶中下载的训练的模型。我已经在线阅读,您可以使用TensorFlow和Docker Images部署模型,但是我只想部署使用我本地计算机使用SageMaker创建的模型。本质上,我想做的是:

predictor = sagemaker.deploy(initial_instance_count=1, instance_type='local_cpu')

我希望能够使用预测函数来进行推理调用,并通过预测结果返回响应。我正在寻找要使用哪个库以及完成此任务的相关代码。谢谢。

sagemaker blazingtext有2种口味:

  1. 一个有监督的版本,该版本学会了分类可变长度令状序列和
  2. 一个无监督的版本,学习令牌嵌入。

根据文档,对于这两个版本,模型生产的二进制文件都可以被FastText消费。从 fasttext python绑定文档中,以下命令似乎适用于两种情况:

import fasttext
# bin file is found in the model.tar.gz produced by Sagemaker
model = fasttext.load_model('model_filename.bin')
# inference for unsupervised version
model['king']
# inference for supervised version
model.predict('Which baking dish is best to bake a banana bread ?')

Gensim似乎具有读取FastText文物的类似能力,但我发现API稍微清晰一些,并且似乎仅适用于无监督的情况(word Embeddings(

最新更新