在下面的示例中,我随后调用root.save(path_to_checkpointfile)
,它每次都会自动递增文件名。每个文件都很大,我想用最新的文件覆盖。我没有看到任何可以设置的kwarg
或属性来实现此目的。有谁知道办法?
root = tf.train.Checkpoint(optimizer=optimizer,
model=model,
optimizer_step=tf.compat.v1.train.get_global_step())
使用 tf.train.CheckpointManager,您可以使用参数"max_to_keep"指定在任何给定时间点需要保留多少个检查点。
这会不断替换最旧的检查点,并在达到要保存的最大检查点数时保存新检查点。
详情请参阅以下连结:
https://www.tensorflow.org/guide/checkpoint