- 1、本文档共123页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第1-2章 人工神经网络基础.ppt
* * 全互联网络 全互联网络是网络中所有的神经元之间都有相互间的连接 如Hopfiled和Boltgmann网络都是这种类型 全 互 联 网 络 * * BP神经网络 * * 2.5 人工神经网络的训练 人工神经网络最具有吸引力的特点是它的学习能力。 1962年,Rosenblatt给出了人工神经网络著名的学习定理:人工神经网络可以学会它可以表达的任何东西。 人工神经网络的表达能力大大地限制了它的学习能力。 人工神经网络的学习过程就是对它的训练过程 * * 人工神经网络的学习过程就是对它的训练过程,所谓训练,就是在将由样本向量构成的样本集合(也称为样本集、训练集)输入到人工神经网络的过程中,按照一定的方式去调整神经网元之间的联接权,使得神经网络能够将样本集的内涵以联接权矩阵的方式存储起来,从而使得在网络接收输入时,可以给出适当的输出。 * * 神经网络的学习算法 * * 学习方法 有监督学习 无监督学习 再励学习 在有监督的学习方式中,网络的输出和期望的输出(即教师信号)进行比较,然后根据两者之间的差异调整网络的权重,最终使差异变小。 在无监督的学习方式中,输入模式进入网络后,网络按照一预先设定的规则(如竞争规则)自动调整权重,使网络最终具有模式分类等功能。 再励学习是介于上述两者之间的一种学习方法 * * 学习规则 Hebb学习规则 这个规则是由Donald Hebb在1949年提出的 他的基本规则可以简单归纳为:如果处理单元从另一个处理单元接受到一个输入,并且如果两个单元都处于高度活动状态,这时两单元间的连接权重就要被加强 Hebb学习规则是一种没有指导的学习方法,它只根据神经元连接间的激活水平改变权重,因此此这种方法又称为相关学习或并联学习 Delta(?)学习规则 Delta规则是最常用的学习规则,其要点是改变单元间的连接权重来减小系统实际输出与应有的输出间的误差 这个规则也叫Widrow-Hoff学习规则,首先在Adaline模型中应用,也可称为最小均方差规则 BP网络的学习算法称为BP算法,是在Delta规则基础上发展起来的,可在多层网络上有效地学习 * * 学习规则 梯度下降学习规则 梯度下降学习规则的要点为在学习过程中,保持误差曲线的梯度下降 误差曲线可能会出现局部的最小值,在网络学习时,应尽可能摆脱误差的局部最小值,而达到真正的误差最小值 Kohonen学习规则 该规则是由Teuvo Kohonen在研究生物系统学习的基础上提出的,只用于没有指导下训练的网络 后向传播学习规则 后向传播(Back Propagation,BP)学习,是目前应用最为广泛的神经网络学习规则 * * 学习规则 概率式学习规则 从统计力学、分子热力学和概率论中关于系统稳态能量的标准出发,进行神经网络学习的方式称概率式学习 误差曲线可能会出现局部的最小值,在网络学习时,应尽可能摆脱误差的局部最小值,而达到真正的误差最小值 竞争式学习规则 竞争式学习属于无监督学习方式。这种学习方式是利用不同层间的神经元发生兴奋性联接以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经无产生抑制性联接 竞争式学习规则的本质在于神经网络中高层次的神经元对低层次神经元的输入模式进行竞争识别 * * 2.5.1无导师学习 无导师学习(Unsupervised Learning)与无导师训练(Unsupervised Training)相对应 抽取样本集合中蕴含的统计特性,并以神经元之间的联接权的形式存于网络中。 * * 2.5.1无导师学习(无监督学习) Hebb学习律、竞争与协同(Competitive and Cooperative)学习、随机联接系统(Randomly Connected Learning)等。 Hebb算法[D. O. Hebb在1961年]的核心: 当两个神经元同时处于激发状态时被加强,否则被减弱。 数学表达式表示: Wij(t+1)=Wij(t)+αoi(t)oj(t) * * 2.5.2 有导师学习(有监督学习) 有导师学习(Supervised Learning)与有导师训练(Supervised Training)相对应。 输入向量与其对应的输出向量构成一个“训练对”。 有导师学习的训练算法的主要步骤包括: 1)? 从样本集合中取一个样本(Ai,Bi); 2)? 计算出网络的实际输出O; 3)? 求D=Bi-O; 4)? 根据D调整权矩阵W; 5) 对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。 * * Delta规则 Widrow和Hoff的写法: Wij(t+1)=Wij(t)+α(yj- oj(t))oi(t) 也可
您可能关注的文档
- 0945532103王珂计算机集散控制实验指导书.doc
- 人工智能复习提要.doc
- 五十音基础 第三课.ppt
- 机械原理课程设计计算说明书.doc
- 财务报表分析第一节.ppt
- 怎样利用3dmax制作简单编藤艺灯罩模型.doc
- 计算机工业网络复习题2011级.doc
- 评分指标(实训基地建设).doc
- 2013高中生物一轮复习课件(人教版)3-6-1.2.ppt
- 实习3_JSP内置对象.ppt
- 基于人工智能教育平台的移动应用开发,探讨跨平台兼容性影响因素及优化策略教学研究课题报告.docx
- 高中生物实验:城市热岛效应对城市生态系统服务功能的影响机制教学研究课题报告.docx
- 信息技术行业信息安全法律法规研究及政策建议教学研究课题报告.docx
- 人工智能视角下区域教育评价改革:利益相关者互动与政策支持研究教学研究课题报告.docx
- 6 《垃圾填埋场渗滤液处理与土地资源化利用研究》教学研究课题报告.docx
- 小学音乐与美术教师跨学科协作模式构建:人工智能技术助力教学创新教学研究课题报告.docx
- 《航空航天3D打印技术对航空器装配工艺的创新与效率提升》教学研究课题报告.docx
- 教育扶贫精准化策略研究:人工智能技术在区域教育中的应用与创新教学研究课题报告.docx
- 《区块链技术在电子政务电子档案管理中的数据完整性保障与优化》教学研究课题报告.docx
- 《中医护理情志疗法对癌症患者心理状态和生活质量提升的长期追踪研究》教学研究课题报告.docx
文档评论(0)