- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2003.12.181第5讲神经网络分类
人工神经网络学习概述2003.12.1821人工神经网络提供了一种普遍且实用的方法从样例中学习值为实数、离散值或向量的函数。2人工神经网络对于训练数据中的错误健壮性很好。3人工神经网络已被成功应用到很多领域,例如视觉场景分析,语音识别,机器人控制。4其中,最流行的网络和算法是20世纪80年代提出的BP网络和BP算法,BP算法使用梯度下降法来调节BP网络的参数以最佳拟合由输入-输出对组成的训练集合。
BP算法概述2003.12.1831、BP算法的出现非循环多级网络的训练算法UCSDPDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描述1982年,Paker就完成了相似的工作1974年,Werbos已提出了该方法2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。3、优点:广泛的适应性和有效性。
BP网络的基本结构2003.12.184
确定BP网络的拓扑结构2003.12.1851在开始训练之前,需要确定网络的拓扑结构:出入层神经元的个数、隐含层神经元的层数及每一层神经元的个数、输出层神经元的个数。2对训练样本中的每一属性的值进行归一化,使其值落在(0,1)区间,有助于加快学习过程。3对于离散的属性值,要进行合适的编码。4BP网一般都选用二级网络。5实验表明:增加隐藏层的层数和隐藏层神经元个数不一定总能够提高网络精度和表达能力。
神经元的M-P模型2003.12.186
激活函数(ActivationFunction)激活函数——执行对该神经元所获得的网络输入的变换,也可以称为激励函数、活化函数:o=f(net)1、线性函数(LinerFunction)f(net)=k*net+cnetooc
2、非线性斜面函数(RampFunction)01γ ifnet≥θ02f(net)=k*net if|net|θ03γ ifnet≤-θ04
2、非线性斜面函数(RampFunction)γ-γθ-θneto
3、阈值函数(ThresholdFunction)阶跃函数 β ifnetθf(net)= -γ ifnet≤θβ、γ、θ均为非负实数,θ为阈值二值形式: 1 ifnetθf(net)= 0 ifnet≤θ双极形式: 1 ifnetθf(net)= -1 ifnet≤θ
3、阈值函数(ThresholdFunction)阶跃函数DCBAβγθoEnetF0
4、S形函数2003.12.1812压缩函数(SquashingFunction)和逻辑斯特函数(LogisticFunction)。f(net)=a+b/(1+exp(-d*net))a,b,d为常数。它的饱和值为a和a+b。最简单形式为:f(net)=1/(1+exp(-d*net))函数的饱和值为0和1。S形函数有较好的增益控制
4、S形函数2003.12.1813a+bo(0,c)netac=a+b/2
BP算法2003.12.1814
BP算法的基本思想2003.12.1815BP算法的基本工作过程大概可以分为两个阶段:1)信号的向前传播,在这个阶段,要求计算出隐含层和输出层中每一神经元的净输入和输出。01误差的向后传播,在这个阶段,要求计算出输出层和隐含层中每一神经元的误差。02
初始化问题2003.12.1816在BP算法中,权和偏置在网络学习之前,都将其初始化为不同的小随机数。01“不同”保证网络可以学习;“小随机数”防止其值过大而提前进入饱和状态。02
更新问题2003.12.1817基本的BP算法采用的是实例更新,即每处理一个实例就更新一次权和偏置。实例更新的缺陷:实例的顺序对训练结果有较大影响。它更“偏爱”较后出现的实例。而给其中的实例安排一个适当的顺序,是非常困难的。01解决的办法就是采用周期更新,即每处理一遍所有的实例才更新一次权和偏置。周期更新的好处是:可以消除实例顺序对结果的影响。02
收敛速度问题2003.12.1818BP算法的训练速度是非常慢的,尤其是当训练达到一定的程度后,甚至有时是发散的。
局部极小点问题2003.12.1819避免——修改初始值:并不是总有效。逃离——统计方法:[Wasserman,1986]将Cauchy训练与BP算法结合起来,可以在保证训练速度不被降低的情况下,找到全局极小点。
网络瘫痪问题2003.12.1820在训练中,权可能变得很大,这会使神经元的网络输入变得很大,从而又使得其激活函数的导函数在此点上的取值很小。根据相应式子,此时的训练步长会变得非常
文档评论(0)