从<tensorflow.python.keras.optimizer_v2.learning_rate_schedule.余弦衰减>对象获取学习率



如何获得在每个on_train_batch_begin更新的学习率值?

lr_decayed_fn = tf.keras.experimental.CosineDecay(initial_lr, decay_steps)
model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=lr_decayed_fn))

我试过这种方式

def on_train_batch_begin (self, batch, logs = None):
lr = K.get_value(self.model.optimizer.lr)

但我得到了<tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay object at 0x7f ...>

当您将函数设置为学习率或对象子类LearningRateScheduler时,您需要使用当前训练步骤调用该函数(或Callable(以获得学习率。您可以使用优化器的iterations属性来获取当前的训练步骤。

class CustomCallback(tf.keras.callbacks.Callback):
def __init__(self) -> None:
super().__init__()
def on_train_batch_begin(self, batch, logs=None):
lr = tf.keras.backend.get_value(
self.model.optimizer.lr(self.model.optimizer.iterations)
)

最新更新