神經网络ch3BP.docVIP

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神經网络ch3BP

第三章BP网络 由于在神经网络中引入了隐层神经元,神经网络就具有更好的分类和记忆等能力,因此相应的学习算法成了研究的焦点。1985年Rumelhart等提出的EBP(Error Back Propagation)算法(简称BP),系统地解决了多层神经元网络中隐单元层连接权的学习问题,并在数学上给出了完整的推导。由于BP网络克服了简单感知机不能解决的X0R和其他一些问题,所以BP模型已成为神经网络的重要模型之一,并得以广泛使用。 采用BP算法的多层神经网络模型一般称为BP网络。多层神经网络模型的拓扑结构如下图所示。它由输入层、中间层和输出层组成。中间层 (隐层)可以是一层或多层。 BP网络的学习过程由两部分组成:正向传播和反向传播。当正向传播时,输入信息从输入层经隐层处理后传向输出层,每一层神经元的状态只影响下一层的神经元状态。如果在输出层得不到希望的输出,则转入反向传播,将误差信号沿原来的神经元连接通路返回。返回过程中,逐一修改各层神经元连接的权值。这种过程不断迭代,最后使得信号误差达到允许的范围之内。 BP网络中采用了有一定阈值特性的连续可微的Sigmoid函数作为神经元的激发函数。这里采用的S型函数为: 3.1 含隐层的前馈网络的δ学习规则 设有P个训练样本,即P个输入一输出对(Xk,Tk),(k=1,2,…,P)。其中,Xk为第k个样本输入向量;Xk=(xk1,xk2,…,xkM),M为输入向量的维数:Tk为第k个样本输出向量(期望输出):Tk=(tk1,tk2,…,tkN),N为输出向量的维数。网络的实际输出向量(其它各层亦相同)为:Ok=(ok1,ok2,…,okN)T (N的大小与所在层有关);wji为前一层第i个神经单元输入到后一层第j个神经单元的权重。 当神经元为输入层单元时,ok=Xk, 对于第k个样本,第j个神经元的状态定义为 则第j个神经元的输出为: okj=fj(Netkj) 定理3.1 对于具有隐层的多层前向神经网络,当神经元激发函数为半线性函数,且训练指标函数取:,时,下述网络学习规则将使E在每个训练循环中按梯度下降: 其中(*)式用于网络输出层,(**)式用于中间隐含层。 误差信号: 证明:由梯度法,对于无约束优化问题 min f(x),。 其中f(x)具有一阶连续偏导数,对x,按f(x)的负梯度方向进行搜索、 xk+1=xk十λkdk。 其中dk是从xk出发的搜索方向,可取为点xk处的最速下降方向,即: dk=—▽f(xk) λk是从xk出发沿方向dk进行一维搜索的步长。 相应地,当取指标函数: 则权值的变化量正比于该指标函数的负梯度,即 将分为两部分之积: 而 okj=f(Netkj) 所以 为了计算,须分为二种情况: 神经单元是输出单元: 所以 2.当某神经单元是隐含单元时, 所以 证毕。 从上面推导中可以看到,在计算具有隐层的前馈多层神经网络的训练误差δkj时,是先从输出层开始,逐层向后进行。这就是“误差反向传播”算法名称的由来。 需要注意的是,在BP网络的学习算法中,反向传播算法要求神经网络单元的输入输出函数是可微的。 关于BP网络的映射能力,许多人进行过研究,可总结成下面的完全性定理: 定理3.2 假定BP网络中隐单元可以根据需要自由设定,那么一个三层网络可以实现以任意精度近似任何连续函数。 BP算法实现了指标函数曲面上的梯度下降。由于网络中的非线性隐含单元的存在,指标函数不只有一个极小点(全局最小点),而是存在多个极小点(局部极小点)。因此,梯度下降法不能保证求出全局最小。求全局最小仍是一个需要研究的问题。 由于BP网络要求采用非线性的连续可导的激励函数,经多年试验研究,现通常采用S型(sigmoid)函数作为激发函数: 则单元输出为: 在这种激励函数下,有: 故对输出层单元: 对隐层单元: 权值调节为: 在实际的学习过程中,学习速率η对学习过程的影响很大。η是按梯度搜索的步长。η越大,权值的变化越剧烈。实际应用中,通常是以不导致振荡的前提下取尽量大的η值。为了使学习速度足够快而不易产生振荡,往往在δ规则中再加上一个“势态项”,即: 式中α是一个常数,它决定过去权重的变化对目前权值变化的影响程度。 下面给出算法步骤: (1)置各权值或阈值的初始值wji(0),θj(0)为小的随机数值。 (2)提供训练样本:输入矢量Xk,期望输出dk,k=1,2.…,P 对每个样本进行下面(3)到(5)的迭代: (3)计算网

您可能关注的文档

文档评论(0)

df9v4fzI + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档