我使用ReduceLROnPlateau
来修改PyTorch模式训练期间的学习率。ReduceLROnPlateau
不继承LRScheduler
,也不实现get_last_lr
方法,这是PyTorch在使用学习率调度器时获得当前学习率的推荐方法。
使用ReduceLROnPlateau
如何获得学习率
目前我正在做以下事情,但我不确定这是否严格和正确:
lr = optimizer.state_dict()["param_groups"][0]["lr"]
您可以跳过优化器的state_dict
,直接访问学习率:
optimizer.param_groups[0]["lr"]