Sagemaker导出和负载模型到内存



我已经使用sagemaker创建了一个模型(在AWS ML笔记本上(。然后,我将该模型导出到S3,并在那里创建了一个.tar.gz文件。

我试图找到一种将模型对象加载到我的代码中的内存的方法(不使用AWS Docker映像和部署(并在其上运行预测。

我在Sagemaker文档的"模型"部分中寻找功能,但是那里的所有内容都与AWS Docker Images紧密耦合。

然后,我尝试使用tarfileshutil软件包打开文件,但这是没有用的。

有什么想法?

除了xgboost,内置算法是用apache mxnet实现的,因此只需从.tar.gz文件中提取模型,然后将其加载到mxnet:load_checkpoint((是使用的API。

Xgboost模型只是腌制对象。sklearn中的未分解和加载:

$ python3
>>> import sklearn, pickle
>>> model = pickle.load(open("xgboost-model", "rb"))
>>> type(model)
<class 'xgboost.core.Booster'>

型号是用内置库(Tensorflow,MXNET,Pytorch等(训练的是香草型号,可以用正确的库将其加载。

希望这会有所帮助。

最新更新