- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人工神经网络算法
第1页/共21页
神经网络几乎与AI同时起步,但30余年来却并未取得人工智能那样巨大的成功,中间经历了一段长时间的萧条。直到80年代,获得了关于人工神经网络切实可行的算法,以及以Von Neumann体系为依托的传统算法在知识处理方面日益显露出其力不从心后,人们才重新对人工神经网络发生了兴趣,才是神经网络理论得到复兴。
第2页/共21页
到目前为止,已经出现许多神经网络模型及相应的学习算法。其中误差逆传播(Error Back-propagation)算法(简称BP算法)是一种较常用的算法。人工神经网络可用于对物群的目标拟合、模式分类和预测。
第3页/共21页
神经网络基本结构——神经元
人工神经网络结构和基本原理基本上是以人脑的组织结构和活动规律为背景,它反映料人脑的某些基本特征,是人脑的某些抽象、简化或模仿。神经网络有许多并行运算的功能简单的单元组成,每个神经元有一个输出,它可以连接到许多其它神经元,每个神经元输入有多个连接通路,每个连接通路对应一个连接权系数。
第4页/共21页
第5页/共21页
X1
X2
Xn
y1
y2
ym
输入层节点
隐层节点
输出层节点
第6页/共21页
这个算法的学习过程,由正向传播和反相传播组成,在正向传播过程中,输入信息从输入层经隐单元层逐层处理,并传向输入层,每一层神经元的状态只影响下一层神经元的状态。如果在输出层不能得到期望得输出,则转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使得误差信号减小,然后再转入正向传播过程,反复迭代,直到误差小于给定的值为止。
第7页/共21页
BP网络的学习过程主要由四部分组成:输入模式顺传播、输出误差逆传播、循环记忆训练、学习结果判别。
第8页/共21页
(1)输入模式顺传播
根据神经元模型原理,计算中间层各神经元的激活值:
(j=1,2,…p)
式中:wij--输入层至中间层连接权;
--中间层单元阀值;
P—中间层单元数。
第9页/共21页
激活函数采用S型函数,即
这里之所以选S型函数作为BP神经元网络的激活函数是因为它是连续可微分的,而且更接近于生物神经元的信号输入形式。
第10页/共21页
阀值在学习过程中和权值一样也不断的被修正。
同理可求出输出端的激活值和输出值。
设输出层第t个单元的激活值为则
设输出层第t个单元的实际输出值为则
(t=1,2,…,q)
第11页/共21页
(2) 输出误差的逆传播
在第一步的模式顺传播计算中我们得到了网络的实际输出值,当这些实际输出值与希望的输出值不一样时或其误差大于所限定的数值时,就要对网络进行校正。
这里的校正是从后向前进行的,所以叫做误差逆传播,计算时是从输出层到中间层,再从中间层到输入层。
第12页/共21页
(3)循环记忆训练
为使网络的输出误差趋于极小值。对于BP网输入的每一组训练模式,一般要经过数百次甚至上万次的循环记忆训练,才能使网络记住这一模式。这种循环记忆训练实际上就是反复重复上面介绍的输入模式顺传播和输出误差逆传播过程,使网络记住训练过程中权值的变化。
第13页/共21页
(4)学习结果的判别
第14页/共21页
第15页/共21页
BP算法存在的缺陷
BP模型把一组样本的I/O问题变为一个非线性优化问题,使用了优化中最普通的梯度下降法,用迭代运算求解权相应于学习记忆问题,加入隐节点使优化问题的可调参数增加,从而可得到更精确的解。神经网络是一种映射表示方法,它是对简单的非线性函数进行复合,经过少数复合后,则可实现复杂的函数,这对数学映射方法有着重要的启事。
但正因为它采用的的是非线性规划中的最速下降法,按误差的负梯度方向修改权值,因而通常存在着一些问题。
第16页/共21页
1.由于学习速率是固定的,因此网络的收敛速度较慢,需要较长的收敛时间。这主要是由于学习速率太小造成的可采用变化的学习速率或自适应的学习速率加以改进。
2.由于是一个非线性优化问题,则不可避免地存在有局部极小的问题。通常,在BP算法中,随机设置初始权值时,网络的训练一般较难达到全局最优。
3.网络隐含层的层数和单元数的选择尚无理论上的指导,一般是根据经验或者是通过反复实验来确定。因此网络往往存在很大的冗余性,在一定程度上也增加了网络学习的负担。
4.网络的学习和记忆具有不稳定性。如果增加了学习样本,训练好的网络就需要从头开始重新训练,对于以前的权值和阈值是没有记忆的。
第17页/共21页
第18页/共21页
第19页/共21页
第20页/共21页
谢谢观看!
第21页/共21页
您可能关注的文档
最近下载
- YY:T 1870-2023 液相色谱 - 质谱法测定试剂盒通用要求.pdf VIP
- 炎德英才大联考·雅礼中学2026届高三9月月考试卷(二)英语试卷(含答案详解).doc VIP
- 四川省成都市玉林中学2024-2025学年九年级上学期10月月考物理试题.docx VIP
- 石油钻井典型事故案例(钻井课件培训资料).ppt VIP
- 《人民币》解说词全五集.doc VIP
- 工程流体力学(闻建龙)课后习题答案解析.docx VIP
- 吉林省中考英语模拟题及答案.doc VIP
- 四川省巴中市南江县实验中学2024-2025学年九年级上学期10月月考物理试题.docx VIP
- 课件:中石油四起典型事故案例分析.ppt VIP
- 通过法律的社会控制.pdf VIP
文档评论(0)