第二篇 章 网络训练优化算法 智能系统课件.pptVIP

第二篇 章 网络训练优化算法 智能系统课件.ppt

  1. 1、本文档共24页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第二篇 章 网络训练优化算法 智能系统课件.ppt

第二章 网络训练优化算法 网络权值的修正过程实际上就是其优化过程 权值修正公式的统一表达形式: 可以从优化算法方面重新考虑和研究网络权值的修正公式 2.1 基于标准梯度下降的方法 2.2 基于数值优化方法的网络训练算法 2.3 数值实例对比 2.1 基于标准梯度下降的方法 改进的算法都是在标准的梯度下降法的基础上发展而来的 改进的算法均只用到目标函数对权值和偏差的一阶导数(梯度)信息 标准梯度下降法权值和偏置值修正的迭代过程可以表示为: 表示目标函数的梯度 训练误差记录 采用附加动量法的训练结果 采用动量法时的训练误差记录 自适应学习速率的调整公式: SEE为网络输出误差和,初始学习速率 的选取范围可以有很大的随意性。 2.1.2 自适应学习速率 权值修正的迭代过程可表示如下: 其中, 为前一次的“更新值”,其初始值 要根据实际应用预先设定。 2.1.3 弹性BP算法 2.2 基于数值优化方法的网络训练算法 2.2.1 拟牛顿法 牛顿法是一种常见的快速优化方法,它利用了一阶和二阶导数信息,其基本形式是: 第一次迭代的搜索方向确定为负梯度方向,即搜索方向,以后各次迭代的搜索方向由下式确定 即 其中, 为海森(Hessian)矩阵(二阶导数矩阵)。 1) BFGS拟牛顿法 除了第一次迭代外,BFGS拟牛顿法在每一次迭代中采用下式来逼近海森矩阵 其中, 2) 正割拟牛顿法 正割拟牛顿法不需要存储完整的海森矩阵,除了第一次迭代外,以后各次迭代的搜索方向由下式确定 其中 第一次迭代的搜索方向确定为负梯度方向,即搜索方向,以后各次迭代的搜索方向由下式确定 根据 所取形式的不同,可构成不同的共轭梯度法。 或 其中 2.2.2 共轭梯度法 Levenberg-Marquardt法的搜索方向定为: 令 ,则 起始时, 取一个很大的数(如 步长很小的梯度下降法;随着最优点的接近, 零,则 从负梯度方向转向牛顿法的方向。 ),此时相当于 减小到 2.2.3 Levenberg-Marquardt法 2.3 数值实例对比 2.3.1 非线性函数的逼近 构造非线性函数对象 训练用输入信号取为

文档评论(0)

youngyu0329 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档