第06讲反向传播网络.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第06讲反向传播网络

第04讲 反向传播网络 反向传播网络(Back—Propagation Network,简称BP网络)是将W—H学习规则一般化,对非线性可微分函数进行权值训练的多层网络。 BP网络是一种多层前向反馈神经网络,其神经元的变换函数是S型函数,因此输出量为0到1之间的连续量,它可以实现从输入到输出的任意的非线性映射。 由于其权值的调整采用反向传播 (Backpropagation)的学习算法,因此被称为BP网络。 BP网络主要用于: 1)函数逼近:用输入矢量和相应的输出矢量训练一个网络逼近—个函数; 2)模式识别:用一个特定的输出矢量将它与输入矢量联系起来; 3)分类:把输入矢量以所定义的合适方式进行分类; 4)数据压缩:减少输出矢量维数以便于传输或存储。 4.1 BP网络模型与结构 感知器和自适应线性元件的主要差别在激活函数上:前者是二值型的,后者是线性的。 BP网络具有一层或多层隐含层,除了在多层网络上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。 BP网络的激活函数必须是处处可微的,所以它就不能采用二值型的阀值函数{0,1}或符号函数{—1,1},BP网络经常使用的是S型的对数或正切激活函数和线性函数。 只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数,在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数。 BP网络的特点: 1、输入和输出是并行的模拟量; 2、网络的输入输出关系是各层连接的权因子决定,没有固定的算法; 3、权因子是通过学习信号调节的,这样学习越多,网络越聪明; 4、隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响 4.2 BP学习规则 BP算法属于δ算法,是一种监督式的学习算法。 其主要思想为:对于q个输入学习样本:P1,P2,……Pq,已知与其对应的输出样本为:T1,T2,……Tq。 学习的目的是用网络的实际输出A1,A2,……Aq,与目标矢量T1,T2,……Tq,之间的误差来修改其权值,使Al,(l=l,2…,q)与期望的Tl尽可能地接近;即:使网络输出层的误差平方和达到最小。 BP算法是由两部分组成:信息的正向传递与误差的反向传播。 在正向传播过程中,输入信息从输入经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神经元的状态。 如果在输出层没有得到期望的输出,则计算输出层的误差变化值,然后转向反向传播,通过网络将误差信号沿原来的连接通路反传回来修改各层神经元的权值直至达到期望目标。 4.2.1信息的正向传递 1)隐含层中第i个神经元的输出为: 4.3 BP网络的训练过程 为了训练一个BP网络,需要计算网络加权输入矢量以及网络输出和误差矢量,然后求得误差平方和。 当所训练矢量的误差平方和小于误差目标,训练则停止,否则在输出层计算误差变化,且采用反向传播学习规则来调整权值,并重复此过程。 当网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将以泛化方式给出输出结果。 [例6.1]用于函数逼近的BP网络的设计。 P=-1:0.1:1; T=[-0.96 0.577 -0.0729 0.377 0.641 0.66 0.461 0.1336 -0.201 -0.434 -0.5 -0.393 -0.1647 0.0988 0.3072 0.396 0.3449 0.1816 -0.0312 -0.2183 -0.3201]; 泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入。 要注意的是,泛化性能只对被训练的输入/输出对最大值范围内的数据有效,即网络具有内插值特性,不具有外插值性。超出最大训练值的输入必将产生大的输出误差。 4.4 BP网络的设计 4.4.1网络的层数 理论上已经证明:具有偏差和至少一个S型隐含层加上一个线性输出层的网络,能够逼近任何有理函数。 增加层数主要可以更进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络权值的训练时间。 一般情况下,应优先考虑增加隐含层中的神经元数。 能不能仅用具有非线性激活函数的单层网络来解决问题呢?结论是:没有必要或效果不好。 4.4.2 隐含层的神经元数 网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层要简单得多。 在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,然后适当地加上一点余量。 4.4.3初始权值的选取 一般取初始权值在(—1,1)之间的随机数。 威得罗等人在分析了两层网络是如何对一个函数进行训练

文档评论(0)

busuanzi + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档