我对SageMaker面临以下挑战:
-
我在本地(成功(进行了修改以下行:
abalone_estimator = TensorFlow(entry_point='abalone.py', role=role, training_steps= 100, evaluation_steps= 100, hyperparameters={'learning_rate': 0.001}, train_instance_count=1, **train_instance_type='local'**) abalone_estimator.fit(inputs)
-
我想通过以下行部将模型部署到AWS,但是SDK似乎在本地部署了该模型(它不会失败,我只是看到它在我的计算机上运行(
abalone_predictor = abalone_estimator.deploy(initial_instance_count=1, instance_type='ml.m4.xlarge')
有关如何修复它的任何提示,以便将其部署到AWS或重新加载我的培训模型并将其部署到AWS中?
非常感谢,Stefan
更容易在Sagemaker上进行培训。否则,这是您必须执行的步骤。
- 取培训期间生成的检查点文件,然后将其转换为Tensorflow服务模型。
- 以特定格式将它们拉链,然后上传到S3
- 然后像您上面完成并进行推理一样创建估算器。
如果您想了解上述每个特定步骤的详细信息,请告诉我,但是如果您的数据集不太大,我会说只是在Sagemaker上重新培训。