- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络学习 之 BP神经网络
第二章BP算法的根本思想
第三章BP网络特性分析
第四章BP网络的训练分解
第一章 概 述
神经网络是1986年由Rumelhart和McCelland为首的科研小组提出,参见他们发表在Nature上的论
文 Learning representations by back-propagating errors 。
BP神经网络是一种按误差逆传播算法训练的多层前馈网络,是目前应用最广泛的神经网络模型之一。BP
网络能学习和存贮大量的 输入-输出模式映射关系,而无需事前揭示描述这种映射关系的数学方程。它
的学习规如此是使用最速下降法,通过反向传播来不断 调整网络的权值和阈值,使网络的误差平方和最
小。
第二章 BP算法的根本思想
多层感知器在如何获取隐层的权值的问题上遇到了瓶颈。既然我们无法直接得到隐层的权值,能否先通
过输出层得到输出结果和期望输出的误差来间接调整隐层的权值呢?BP算法就是采用这样的思想设计出
来的算法,它的根本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。
l正向传播时,输入样本从输入层传入,经各隐层逐层处理后,传向输出层。假如输出层的实际输出与期望
的输出(教师信号)不符,如此转入误差的反向传播阶段。
l反向传播时,将输出以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得
各层单元的误差信号,此误差信号即作为修正各单元权值的依据。
这两个过程的具体流程会在后文介绍。
BP算法的信号流向图如如下图所示
第三章 BP网络特性分析
我们分析一个ANN时,通常都是从它的三要素入手,即 1)网络拓扑结构; 2)传递函数; 3)学习算法。
每一个要素的特性加起来就决定了这个ANN的功能特性。所以,我们也从这三要素入手对BP网络的研
究。
3.1 BP网络的拓扑结构
上一次已经说了,BP网络实际上就是多层感知器,因此它的拓扑结构和多层感知器的拓扑结构一样。由
于单隐层〔三层〕感知器已经能够解决简单的非线性问题,因此应用最为普遍。三层感知器的拓扑结构
如如下图所示。 一个最简单的三层BP :
3.2 BP网络的传递函数
BP网络采用的传递函数是非线性变换函数——Sigmoid函数 〔又称S函数〕。其特点是
函数本身与其导数都是连续的,因而在处理上十分方便。为什么要选择这个函数,等下在介绍BP网络的
学习算法的时候会进展进一步的介绍。
单极性S型函数曲线如如下图所示。
双极性S型函数曲线如如下图所示。
3.3 BP网络的学习算法
BP网络的学习算法就是BP算法,又叫 δ 算法〔在ANN的学习
过程中我们会发现不少具有多个名称的术语〕, 以三层感知器为例,当网络输出与期望输出不等时,存
在输出误差 E ,定义如下:
将以上误差定义式展开至隐层,有
进一步展开至输入层,有
由上式可以看出,网络输入误差是各层权值ωj κ、υij的函数,因此调整权值可改变误差 E。 显然,调整
权值的原如此是使误差不断减小,因此应使权值与误差的梯度下降成正比,即 :
对于一般多层感知器,设共有 h 个隐层,按前向顺序各隐层节点数分别记为 m 1,m2,…,mh ,各隐层输出
分别记为 y 1,y2,…,yh ,各层权值矩阵分别记为 W 1,W2,…,Wh,Wh+ 1,如此各层权值调整公式为
输出层
第 h 隐层
按以上规律逐层类推,如此第一隐层权值调整公式
容易看出,BP学习算法中,各层权值调整公式形式上都是一样的,均由3个因素决定,即:
1.学习率 η
2.本层输出的误差信号δ
3.本层输入信号 Y 〔或X 〕
其中输入层误差信号与网络的期望输出与实际输出之差有关,直接反响了输出误差,而各隐层的误差信
号与前面各层的误差信号有关,是从输出层开始逐层反传过来的。
可以看出BP算法属于δ学习规如此类,这类算法常被称为误差的梯度下降算法。δ学习规如此可以看成是
Widrow-Hoff(LMS)学习规如此的一般化(generalize)情况。LMS学习规如此与神经元采用的变换函数无
关,因而不需要对变换函数求导,δ学习规如此如此没有这个性质,要求变换函数可导。这就是为什么我
们前面采用Sigmoid函数的原因。
综上所述,BP三要素如如下图所示。
第四章 BP网络的训练分解
文档评论(0)