scheduler 的使用
from torch.optim.lr_scheduler import ReduceLROnPlateau
...
scheduler = ReduceLROnPlateau(optimizer, 'min',factor=0.35,verbose=1,min_lr=0.0001,patience=5)
...
schedluer.step(loss) # 传入loss,判断在patience 的范围内是否需要改变lr,如果需要则动态变小
下图给出了我在使用该方法动态调整lr的时候,屏幕打印出lr的变化值