网站大量收购独家精品文档,联系QQ:2885784924

神经网络BP算法.pptVIP

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

初始化加输入和期望输出计算隐层和输出层的输出迭代次数加1调节输出层和隐层的连接权值改变训练样板训练样终止?迭代终止?BP算法的基本流程NoNoyy01由于神经网络具有自学习、自组织和并行处理等特征,并具有很强的容错能力和联想能力,因此,神经网络具有模式识别能力。02在神经网络识别中,根据标准的输入输出模式对,采用神经网络学习算法,以标准的模式作为学习样本进行训练,通过学习调整神经网络的连接权值。03当训练满足要求后,得到知识库,利用神经网络并行推理算法便可对所需的输入模式进行识别。04BP网络模式识别01为了训练一个BP网络,需要计算网络加权输入矢量以及网络输出和误差矢量,然后求得误差平方和。02当所训练矢量的误差平方和小于误差目标,训练则停止,否则在输出层计算误差变化,且采用反向传播学习规则来调整权值,并重复此过程。03当网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将给出输出结果。BP网络的训练过程为了能够较好地掌握BP网络的训练过程,我们再用两层网络为例来叙述BP网络的训练步骤。用小的随机数对每一层的权值W初始化,以保证网络不被大的加权输入饱和;计算网络各层输出矢量A1和A2以及网络误差E计算各层反传的误差变化并计算各层权值的修正值以及新权值01再次计算权值修正后误差平方和:02检查误差是否小于给定误差,若是,训练结束;否则继续。03以上所有的学习规则与训练的全过程,仍然可以用函数trainbp.m来完成。它的使用同样只需要定义有关参数:显示间隔次数,最大循环次数,目标误差,以及学习速率,而调用后返回训练后权值,循环总数和最终误差:01TP=[disp_freqmax_epocherr_goal1r];02[W,B,epochs,errors]=trainbp(W,B,’F’,P,T,TP);03基于BP算法的多层前馈网络用图像压缩编码1Ackley和Hinton等人1985年提出了利用多层前馈神经网络的模式变换能力实现数据编码的基本思想。其原理是,把一组输入模式通过少量的隐层节点映射到一组输出模式,并使输出模式等同于输入模式。当中间隐层的节点数比输入模式维数少时,就意味着隐层能更有效的表现输入模式,并把这种表现传给输出层。在这个过程中,输入层和隐层的变换可以看成是压缩编码的过程;而隐层和输出层的变换可以看成是解码过程。2用多层前馈网实现图像数据压缩时,只需一个隐层,如图原图像nn重建图像nn输入层和输出层均含有n*n个神经元,每个神经元对应于n*n图像分块中的一个像素。隐层神经元的数量由图像压缩比决定,如n=16时,取隐层神经元数为m=8,则可将256像素的图像块压缩为8像素。01通过调整权值使训练集图像的重建误差达到最小。训练后的网络就可以用来执行图像的数据压缩任务了,此时隐层输出向量便是数据压缩结果,而输出层的输出向量便是图像重建的结果。02黑白图像的边缘检测:分析BP网络结构特点:01BP网络具有一层或多层隐含层,与其他网络模型除了结构不同外,主要差别表现在激活函数上。02BP网络的设计BP网络的激活函数必须是处处可微的,所以它就不能采用二值型的阀值函数{0,1}或符号函数{—1,1},BP网络经常使用的是S型的对数或正切激活函数和线性函数。只有当希望对网络的输出进行限制,如限制在0和1之间,那么在输出层应当包含S型激活函数,在一般情况下,均是在隐含层采用S型激活函数,而输出层采用线性激活函数。输入和输出是并行的模拟量;1网络的输入输出关系是各层连接的权因子决定,没有固定的算法;2权因子是通过学习信号调节的,这样学习越多,网络越聪明;7、隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响理论上已经证明:具有偏差和至少一个S型隐含层加上一个线性输出层的网络,能够逼近任何有理函数。01增加层数主要可以更进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络权值的训练时间。02一般情况下,应优先考虑增加隐含层中的神经元数。03能不能仅用具有非线性激活函数的单层网络来解决问题呢?结论是:没有必要或效果不好。04网络的层数:BP网络的设计01隐含层的神经元数02网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层要简单得多。03在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,然后适当地加上一点余量。一般取初始权值在(-1,1)之间的随机数。010203在MATLA

文档评论(0)

junjun37473 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档