服务热线:13988889999

站内公告:

诚信为本:市场永远在变,诚信永远不变。
深度学习调参:优化算法,优化器optimizer,学习率learning rate

你的位置: 首页 > 杏悦新闻

深度学习调参:优化算法,优化器optimizer,学习率learning rate

2024-08-12 02:45:31  点击量:

在优化模型的过程中,有高原、高峰、洼地,我们的目的是找到最低的那个洼地。
选择不同的学习率和优化器,可能进入不同的洼地,或者在洼地附近震荡,无法收敛。

Adam那么棒,为什么还对SGD念念不忘
https://blog.csdn.net/jiachen0212/article/details/80086926

学习率是深度学习中的一个重要的超参,如何调整学习率是训练出好模型的关键要素之一。
学习率决定了每步权重更新对当前权重的改变程度:
在这里插入图片描述
其中E(w)为我们优化的损失函数,η是学习率。

学习率太小,更新速度慢;学习率过大,可能跨过最优解。
因此,在刚开始训练,距离最优解较远时可以采用稍大的学习率,随着迭代次数增加,在逼近最优解的过程中,逐渐减小学习率。

太大容易出现超调现象,即在极值点两端不断发散,或是剧烈震荡,总之随着迭代次数增大loss没有减小的趋势;
太小会导致无法快速地找到好的下降的方向,随着迭代次数增大loss基本不变。

在这里插入图片描述

学习率调整方法基本上有两种:

  1. 基于经验的手动调整。 通过尝试不同的固定学习率,如0.1, 0.01, 0.001等,观察迭代次数和loss的变化关系,找到loss下降最快关系对应的学习率。

  2. 基于策略的调整。

    2.1 fixed 、exponential、polynomial

    2.2. 自适应动态调整。adadelta、adagrad、ftrl、momentum、rmsprop、sgd

方法如下:
https://blog.csdn.net/Cxiazaiyu/article/details/81837230

制定一个合适的学习率衰减策略。可以使用定期衰减策略,比如每过多少个epoch就衰减一次;或者利用精度或者AUC等性能指标来监控,当测试集上的指标不变或者下跌时,就降低学习率。

例子:

 

其中opt.lr_decay = 0.95

首页 |杏悦介绍 |杏悦展示 |杏悦新闻 |杏悦登录 |杏悦代理 |杏悦招商 |杏悦平台 |杏悦APP下载 |联系我们

13988889999

Copyright © 2012-2018 首页-杏悦-杏悦注册站 版权所有

地址:海南省海口市玉沙路58号电话:0898-88889999手机:13988889999

ICP备案编号:琼ICP备88889999号

微信扫一扫

微信扫一扫

>

平台注册入口