Tensorflow训练,如何防止训练节点被删除



我将Tensorflow与python一起用于对象检测。

我想开始训练,并离开一段时间,保留所有训练节点(模型cpk(。标准的Tensorflow训练似乎会删除节点,只保留最后几个节点。我该如何防止这种情况发生?

如果问这样的问题的地方不对,请原谅。如果有人告诉我一个合适的地方,我会被打扰的。非常感谢。

您可以将keep_checkpoint_max标志用于model_main.py中的tf.estimator.RunConfig。您可以将其设置为一个非常大的数字,以实际保存所有检查点。不过,应该提醒您,根据型号大小和保存频率的不同,它可能会填满您的磁盘(因此在训练过程中会崩溃(。您可以通过RunConfig的标志save_checkpoints_stepssave_checkpoints_secs更改保存频率。默认情况下使用save_checkpoints_secs,默认值为600(10分钟(。

您可以将模型检查点保存为.hdf5文件,以便在想要预测测试数据时再次加载它们。希望能有所帮助。

最新更新