BP网络的改进算法简介.doc

  1. 1、本文档共5页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
BP网络的改进算法简介.doc

人工神经网络(Artificial Neural Network ,ANN) ,自从20 世纪50 年代Rosenblatt首次将单层感知器应用于模式分类学习以来,已经有了几十年的研究历史. 但是由于Minsky 和Papert 指出单层系统的局限性,并表达了对多层系统的悲观看法,在20 世纪70 年代对ANN 的研究兴趣减弱. 直至80 年代中期Rumelhart 等重新阐述了反传训练方法,使得在ANN领域的理论和应用研究开始在世界范围内重新兴起.ANN 是一种按照人脑的组织和活动原理而构造的一种数据驱动型非线性映射模型,它具有并行处理、自适应自组织、联想记忆、容错鲁棒以及逼近任意非线性等特性,在预测评估、模式识别、信号处理、组合优化及知识工程等领域具有广泛的应用. 近年来,已有多种ANN 模型被提出并得以深入研究. 其中,80 %~90 %的人工神经网络模型是采用前馈反向传播网络(Back Propagation Net Work 简称BP 网络) 或它的改进形式,它是前向网络的核心部分,体现了网络最精华的部分. 标准的BP 网络是根据Widrow - Hoff 规则,采用梯度下降算法,在非线性多层网络中,反向传播计算梯度. 但BP 网络存在自身的限制与不足,如需要较长的训练时间、会收敛于局部极小值等,使得BP 算法在实际应用中不是处处能胜任.因此近十几年来,许多研究人员对其做了深入的研究,提出了许多改进的算法,如使用动量项的加快离线训练速度的方法、归一化权值更新技术方法、快速传播算法、δ-δ方法、扩展卡尔曼滤波法、二阶优化以及最优滤波法等. BP网络的改进算法大体上分为两类,一类是采用启发式技术,如附加动量法、自适应学习速率法、RPROP 方法;另一类是采用数字优化技术,如共轭梯度法、拟牛顿法、Levenberg - Marquardt 方法. 附加动量法使BP 神经网络在修正其权重和阈值时,不仅考虑误差在梯度上的作用,而且考虑在误差曲面上变化趋势的影响,它允许忽略网络上的微小变化特性. 该方法是在反向传播法的基础上,在每一个权重和阈值的变化上加上一项正比于前次权重和阈值变化量的值,并根据反向传播法来产生新的权重和阈值的变化,带有附加动量因子的权重和阈值(X) 调节公式为:(1) 其中k 为训练次数, mc 为动量因子,一般取0. 95 左右, lr 为学习速率,是常数, E 为误差函数.这种方法所加入的动量项实质上相当于阻尼项,它减小了学习过程的振荡趋势, 从而改善了收敛性,找到更优的解. 但是这种方法的缺点也是明显的,参数的选取只能通过实验来确定, 而且它的学习速度还不能满足实时的工作需要. 2.自适应学习速率法 自适应调整学习速率有利于缩短学习时间. 标准B P算法收敛速度慢的重要原因是学习速率选择不当. 学习速率选得太小,收敛太慢;学习速率选取得太大,则有可能修正过头,导致发散. 因此出现了自适应调整的改进算法,其权重和阈值(X) 见公式(2)(3) 其中, lr 为学习速率,是变量,而公式(1) 中lr 是常数.通常调节学习速率lr 的准则是:检查权重的修正值是否真正降低了误差函数, 如果确实如此, 则说明所选取的学习速率值小了,可以对其增加一个量;若不是这样,而产生了过调,那么就应减小学习速率的值. 3.弹性BP(Resilient Back propagation ,RPROP) 方法 一般来说,BP 网络的隐含层激活函数采用S形的(Sigmoid) 函数. Sigmoid 函数用于将神经元的输入范围( - ∞, + ∞) 映射到(0 ,1) ,当输入变量很时,Sigmoid 函数的斜率将接近于0. 这可能导致在利用Sigmoid 函数训练BP 网络中梯度下降的问题,由于即使梯度有很小的变化,也会引起权重和阈值的微小变化,使权重和阈值远离最乐观的值. 有鉴于此,1993 年德国Martin Riedmiller 和Heinrich Braun 在他们的论文中提出有弹性的BP(Resilient Backpropagation) 方法.这种方法的原理是打算消除偏导数的大小有害的影响权步,因此,唯有导数的符号被认为表示权更新的方向,而导数的大小对权更新没有影响. 权改变的大小仅仅由权专门的“更新 t 时刻.对每个权重和阈值的更新值得到修改,权更新本身遵循一个很简单的规则:如果导数是正(增加误差) ,这个权重和阈值由它的更新值降低,如果导数是负,更新值提高: 见公式(5) RPROP 的基本原理是权重和阈值更新值的直接修改,它和以学习速率为基础的算法相反(正如梯度下降一样) . RPROP 引入Resilient (有弹性的)更新值的概念直接地修改权步的大小. 因此, 修改结果不会被不可预见的梯度性能

文档评论(0)

docinpfd + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5212202040000002

1亿VIP精品文档

相关文档