我已经使用sagemaker创建了一个模型(在AWS ML笔记本上(。然后,我将该模型导出到S3,并在那里创建了一个.tar.gz
文件。
我试图找到一种将模型对象加载到我的代码中的内存的方法(不使用AWS Docker映像和部署(并在其上运行预测。
我在Sagemaker文档的"模型"部分中寻找功能,但是那里的所有内容都与AWS Docker Images紧密耦合。
然后,我尝试使用tarfile
和shutil
软件包打开文件,但这是没有用的。
有什么想法?
除了xgboost,内置算法是用apache mxnet实现的,因此只需从.tar.gz文件中提取模型,然后将其加载到mxnet:load_checkpoint((是使用的API。
Xgboost模型只是腌制对象。sklearn中的未分解和加载:
$ python3
>>> import sklearn, pickle
>>> model = pickle.load(open("xgboost-model", "rb"))
>>> type(model)
<class 'xgboost.core.Booster'>
型号是用内置库(Tensorflow,MXNET,Pytorch等(训练的是香草型号,可以用正确的库将其加载。
希望这会有所帮助。