from keras.callbacks import ReduceLROnPlateau
reduce_lr = ReduceLROnPlateau(monitor=‘val_loss’, factor=0.5, patience=2, verbose=1)
monitor:监测的值,可以是accuracy,val_loss,val_accuracy
factor:缩放学习率的值,学习率将以lr = lr*factor的形式被减少
patience:当patience个epoch过去而模型性能不提升时,学习率减少的动作会被触发
mode:‘auto’,‘min’,‘max’之一 默认‘auto’就行
epsilon:阈值,用来确定是否进入检测值的“平原区”
cooldown:学习率减少后,会经过cooldown个epoch才重新进行正常操作
min_lr:学习率最小值,能缩小到的下限
verbose: 详细信息模式,0 或者 1 。
Reduce=ReduceLROnPlateau(monitor='val_accuracy',
factor=0.1,
patience=2,
verbose=1,
mode='auto',
epsilon=0.0001,
cooldown=0,
min_lr=0)
keras 调整学习率ReduceLROnPlateau
原创
©著作权归作者所有:来自51CTO博客作者我是天才很好的原创作品,请联系作者获取转载授权,否则将追究法律责任
提问和评论都可以,用心的回复会被更多人看到
评论
发布评论
相关文章
-
保真调整图像分辨率
保持原始比例进行缩放
高宽比 图像缩放 保真缩放 -
学习率调整策略
模型搭建要素及sequential
损失函数 数据 参数设置 -
torch.optim.lr_scheduler.ReduceLROnPlateau学习速率的调整pytorch
官网说明:https://pytorch.org/docs/stable/optim.html?h
pytorch scala 官网 参数详解 html -
使用scheduler动态调整学习率
使用scheduler动态改变lr
nlp # pytorch 自然语言处理 pytorch