我在亚马逊Sagemaker上使用AWS BlazingText算法训练了一个模型,我能够使用SageMaker部署端点。但是,在我的情况下,这不是成本效益,我想在本地运行它。我发现有关此的文档令人困惑。
我所拥有的是从我的S3存储桶中下载的训练的模型。我已经在线阅读,您可以使用TensorFlow和Docker Images部署模型,但是我只想部署使用我本地计算机使用SageMaker创建的模型。本质上,我想做的是:
predictor = sagemaker.deploy(initial_instance_count=1, instance_type='local_cpu')
我希望能够使用预测函数来进行推理调用,并通过预测结果返回响应。我正在寻找要使用哪个库以及完成此任务的相关代码。谢谢。
sagemaker blazingtext有2种口味:
- 一个有监督的版本,该版本学会了分类可变长度令状序列和
- 一个无监督的版本,学习令牌嵌入。
根据文档,对于这两个版本,模型生产的二进制文件都可以被FastText消费。从 fasttext
python绑定文档中,以下命令似乎适用于两种情况:
import fasttext
# bin file is found in the model.tar.gz produced by Sagemaker
model = fasttext.load_model('model_filename.bin')
# inference for unsupervised version
model['king']
# inference for supervised version
model.predict('Which baking dish is best to bake a banana bread ?')
Gensim似乎具有读取FastText文物的类似能力,但我发现API稍微清晰一些,并且似乎仅适用于无监督的情况(word Embeddings(