第二章 网络训练优化算法 智能系统课件.pptVIP

第二章 网络训练优化算法 智能系统课件.ppt

  1. 1、本文档共24页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第二章 网络训练优化算法 智能系统课件

第二章 网络训练优化算法 网络权值的修正过程实际上就是其优化过程 权值修正公式的统一表达形式: 可以从优化算法方面重新考虑和研究网络权值的修正公式 2.1 基于标准梯度下降的方法 2.2 基于数值优化方法的网络训练算法 2.3 数值实例对比 2.1 基于标准梯度下降的方法 改进的算法都是在标准的梯度下降法的基础上发展而来的 改进的算法均只用到目标函数对权值和偏差的一阶导数(梯度)信息 标准梯度下降法权值和偏置值修正的迭代过程可以表示为: 2.1.1 附加动量法 附加动量的BP算法的权值修正的迭代过程可以表示为: 2.1.2 自适应学习速率 2.1.3 弹性BP算法 2.2 基于数值优化方法的网络训练算法 2.2.1 拟牛顿法 牛顿法是一种常见的快速优化方法,它利用了一阶和二阶导数信息,其基本形式是: 第一次迭代的搜索方向确定为负梯度方向,即搜索方向,以后各次迭代的搜索方向由下式确定 2.2.2 共轭梯度法 2.2.3 Levenberg-Marquardt法 2.3 数值实例对比 2.3.1 非线性函数的逼近 构造非线性函数对象 非线性函数的逼近的网络创建为 2.3.2 逼近非线性直流电机的输入/输出特性 假设电机模型为一阶系统,即输入/输出关系式可以表示为 习 题 〖4.2〗根据所学过的BP网络设计及改进方案设计实现模糊控制规则为T = int((e+ec)/2)的模糊神经网络控制器,其中输入变量e和输出变量ec的变化范围分别是:e = {-2, 2},ec = {-2, 2}。网络设计的目标误差为。设计要求为: ①输入、输出矢量及问题的阐述; ②给出网络结构 ③学习方法(包括所采用的改进方法); ④初始化及必要的参数选取; ⑤最后的结果,循环次数,训练时间,其中着重讨论: a)不同隐含层S1时的收敛速度与误差精度的对比分析, b)当S1设置为较好的情况下,在训练过程中取始终不变的学习速率lr值时,对lr值为不同值时的训练时间,包括稳定性进行观察比较, c)当采用自适应值学习速率时,与单一固定的学习速率lr中最好的情况进行对比训练的观察, d)给出结论或体会。 ⑥验证,采用插值法选取多于训练时的输入,对所设计的网络进行验证,给出验证的A与T值。 * 表示目标函数的梯度 其中k为训练次数,mc为动量因子,一般取0.95左右。 训练程序中对采用动量法的判断条件为: 其中,SSE为网络的输出误差平方和。 【例2.1】采用附加动量法的反向传播网络的训练。 用一层网络来实现下面的输入/输出关系: P = [ -6 -6.1 -4.1 -4 4 4.1 6 6.1 ], T = [ 0.0 0.0 0.97 0.99 0.01 0.03 1 1 ], 网络误差曲线图 mc = 0时的训练结果 训练误差记录 采用附加动量法的训练结果 采用动量法时的训练误差记录 自适应学习速率的调整公式: SEE为网络输出误差和,初始学习速率 的选取范围可以有很大的随意性。 权值修正的迭代过程可表示如下: 其中, 为前一次的“更新值”,其初始值 要根据实际应用预先设定。 即 其中, 为海森(Hessian)矩阵(二阶导数矩阵)。 1) BFGS拟牛顿法 除了第一次迭代外,BFGS拟牛顿法在每一次迭代中采用下式来逼近海森矩阵 其中, 2) 正割拟牛顿法 正割拟牛顿法不需要存储完整的海森矩阵,除了第一次迭代外,以后各次迭代的搜索方向由下式确定 其中 第一次迭代的搜索方向确定为负梯度方向,即搜索方向,以后各次迭代的搜索方向由下式确定 根据 所取形式的不同,可构成不同的共轭梯度法。 或 其中 Levenberg-Marquardt法的搜索方向定为: 令 ,则 起始时, 取一个很大的数(如 步长很小的梯度下降法;随着最优点的接近, 零,则 从负梯度方向转向牛顿法的方向。 ),此时相当于 减小到 训练用输入信号取为 图2.1 输入/输出关系曲线图 表2.1 三种算法收敛速度的比较 0446.38 标准梯度下降法(标准BP算法) traingd 0457.75 附加动量的BP算法,动量因子mc=0.9 traingdm 0.000265963 448.30 变学习

文档评论(0)

qiwqpu54 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档