- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
LossFunction一般形式及数学概念深度学习梯度优化方法深度学习
优化方法 */25 5、 Mini-batch Gradient Descent 面临的挑战: learning rate选取比较困难 对于稀疏数据或者特征,有时我们可能想更新快一些; 对于常出现的特征更新慢一些,这时候SGD就不太能满足要求了; SGD容易收敛到局部最优,并且在某些情况下可能被困在鞍点 优化方法-Momentum */25 momentum是模拟物理里动量的概念,积累之前的动量来替代真正的梯度: 其中, 是动量因子。 优化方法-Momentum */25 SGD without momentum SGD with momentum 优化方法-Momentum */25 特点: 下降初期时,使用上一次参数更新,下降方向一致,乘上较大的 能够进行很好的加速; 下降中后期时,在局部最小值来回震荡的时候, , 使得更新幅度增大,跳出陷阱; 在梯度改变方向的时候, 能够减少更新; 总之,momentum项能够在相关方向加速SGD,抑制振荡,从而加快收敛。 优化方法-Nesterov */25 nesterov项在梯度更新时做一个校正,避免前进太快,同时提高灵敏度: 并没有直接改变当前梯度 ,所以Nesterov的改进就是让之前的动量直接影响当前的梯度。即: 因此,加上nesterov项后,梯度在大的跳跃后,进行计算对当前梯度进行校正。 优化方法-Nesterov */25 momentum首先计算一个梯度(短的蓝色向量),然后在加速更新梯度的方向进行一个大的跳跃(长的蓝色向量),nesterov项首先在之前加速的梯度方向进行一个大的跳跃(棕色向量),计算梯度然后进行校正(绿色梯向量): momentum项和nesterov项都是为了使梯度更新更加灵活,对不同情况有针对性。 优化方法-Adagrad */25 Adagrad其实是对学习率进行了一个约束,即: 对 从1到 进行一个递推形成一个约束项regularizer 优化方法-Adagrad */25 特点: 前期 较小时候,regularizer较大,能够放大梯度 ; 后期 较大的时候,regularizer较小,能够约束梯度; 适合处理稀疏梯度。 缺点: 仍依赖于人工设置一个全局学习率; 设置过大的话,会使regularizer过于敏感,对梯度的调节太大; 中后期,分母上梯度平方的累加将会越来越大,使 ,训练提前结束。 优化方法-Adadelta */25 Adadelta是对Adagrad的扩展, Adagrad会累加之前所有的梯度平方,而Adadelta只累加固定大小的项,并且也不直接存储这些项,仅仅是近似计算对应的平均值。即: 其实Adadelta还是依赖于全局学习率的,但作者做了一定处理,经过近似牛顿迭代法之后: 此时Adadelta已经不用依赖于全局学习率了 优化方法-Adadelta */25 特点: 训练初中期,加速效果不错,很快; 训练后期,反复在局部最小值附近抖动。 优化方法-RMSprop */25 RMSprop可以算作Adadelta的一个特例: 当 时, 就变为了求梯度平方和的平均数; 如果再求根的话,就变成了RMS(均方根): 此时,这个RMS就可以作为学习率的一个约束: 优化方法-RMSprop */25 RMSprop: 其实RMSprop依然依赖于全局学习率; RMSprop算是Adagrad的一种发展,和Adadelta的变体,效果趋于二者之间; 适合处理非平稳目标 - 对于RNN效果很好。 优化方法-Adam */25 Adam(Adaptive Moment Estimation)本质上是带有动量项的RMSprop, 它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率; Adam的优点主要在于经过偏置校正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。 优化方法-Adam */25 公式如下: 其中, 、 分别是对梯度的一阶矩估计和二阶矩估计,可以看作对期望 、 的估计; 、 是对 、 的校正,这样可以近似为对期望的无偏估计。 对学习率形成一个动态约束,而且有明确的范围。 优化方法-Adam */25 特点: 结合了Adagrad善于处理稀疏梯度和RMSprop善于处理非平稳目标的优点; 对内存需求
您可能关注的文档
- CAFF-JG-201036光纤激光打标机招标书-重庆卡福汽车制动.DOC
- CCAR-141部飞机类商用执照课程陈广承2010511.PPT
- CDB福建分行设计任务书-广州公共资源交易中心.DOC
- CAN总线-嵌入式与网络计算湖南重点室.PPT
- CING天然气展邀请函-全球最大石油展!.DOC
- CGC-R440962013空气净化器认证实施规则-鉴衡认证.DOC
- CMOS集成电路设计-西安理工大学.PPT
- CCNP学前测试题都选自官方的全真考试题共100道题实际测试选.DOC
- CS391计算机网络教学大纲2018年春季-朱燕民.DOC
- Cookies文本等数据信息保留在临时文件夹中WindowsXP系统+IE.PPT
原创力文档


文档评论(0)