第4章 人工神经元模型 《智能控制技术 知识(第2版)》课件.pptVIP

第4章 人工神经元模型 《智能控制技术 知识(第2版)》课件.ppt

  1. 1、本文档共67页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第4章 人工神经元模型 《智能控制技术 知识(第2版)》课件.ppt

第四章 人工神经元模型;*;模糊逻辑控制解决了人类智能行为的语言的描述和推理问题 人工神经网络是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。 ;发展历史: 1943年,心理学家McCmloch和数学家Pitts合作提出形式神经元数学模型(MP),揭开了神经科学理论的新时代。 1944年Hebb提出了改变神经元连接强度的Hebb规则 1957年Rosenblatt首次引进了感知器概念(Perceptron)。 1976年,Grossberg提出了自适应共振理论 1982年,美国加州工学院物理学家Hopfield提出了HNN模型,他引入了“计算能量函数”的概念,给出了网络的稳定性判据 1986年,Rumelhart等PDP研究小组提出了多层前向传播网络的BP学习算法;神经元网络系统的研究: 神经元模型 神经网络结构 神经网络学习方法 从神经元模型角度来看,有 线性处理单元 非线性处理单元 从网络结构方面来看,有: 前向网络 反馈网络 自组织网络;1、阈值型 2、分段线性型 ;3、Sigmoid 函数型 4、Tan函数型 ;神经网络模型的种类相当丰富,已有近40余种各式各样的神经网络模型。根据连接方式的不同,神经网络的结构类型主要分4类: 前向网络 反馈网络 相互结合型网络 混合型网络 ;前向网络 (a)、反馈网络(b)、相互结合型网络(c)、 混合型网络(d) ;神经网络的学习算法 有导师学习:就是在训练过程中,始终存在一个期望的网络输出。期望输出和实际输出之间的距离作为误差度量并用于调整权值 无导师学习:无导师学习指的是网络不存在一个期望的输出值, 需建立一个间接的评价函数;神经网络学习规则根据连接权系数的改变方式不同又可分为如下三类: 相关学习 纠错学习 无导师学习 ;相关学习: 仅仅根据连接间的激活水平改变权系数。它常用于自联想网络 。 最常见的学习算法是Hebb规则:如果单元ui接受来自另一单元uj的输出,那么,如果两个单元都高度兴奋,则从uj到ui的权值wij便得到加强。用数学形式可以表示为: Δwij=ηyioj η表示学习步长;纠错学习:有导师学习方法 ,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前向传播网络和Boltzmann机网络。其学习的方法是梯度下降法。 最常见的学习算法有δ规则、模拟退火学习规则。 δ规则学习信号就是网络的期望输出t与网络实际输出y的偏差δj=tj-yj。连接权阵的更新规则为: Δwji=ηδjyi ;无导师学习表现为自适应实现输入空间的检测规则。它常用于ART、Kohonen自组织网络。 例如Winner-Take-All 学习规则 假设输出层共有no个输出神经元,且当输入为x时,第m个神经元输出值最大,则称此神经元为胜者。并将与此胜者神经元相连的权系数Wm 进行更新。其更新公式为: Δwmj=η(xj-wmj), j=1,2,...ni 式中η0,为小常数 ;神经网络的泛化能力 当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。 在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。 与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。 ;*;前向神经网络是由一层或多层非线性处理单元组成。相邻层之间通过突触权系数连接起来。由于每一层的输出传播到下一层的输入,因此称此类网络结构为前向神经网络,有三种结构: 单一神经元 单层神经网络结构 多层神经网络结构 ;单一神经元: 每一神经元的激励输出是由一组连续输入信号xi i=1,2,...,ni决定的,而这些输入信号代表着从另外神经元传递过来的神经脉冲的瞬间激励。设y代表神经元的连续输出状态值;单层神经网络结构:由ni个输入单元和no的输出单元组成。系统ni个输入变量用xj j=1,2,...,ni表示,no个输出变量用yi;i=1,2,...,no表示;多层神经网络结构: 是在输入层和输出层之间嵌入一层或多层隐含层的网络结构。隐含单元既可以与输入输出单元相连,也可以与其它隐含单元相连。 ;假设每一层的神经元激励函数相同,则对于L+1层前向传播网络,其网络输出的数学表示关系方程式一律采用: 其中: Γl为各层神经元的激励函数, Wl 为l-1层到l层的连接权矩阵, l=1,2,...,L θl 为l层的阀值矢量;有导师学习的基本思想 前向传播网络实质上表示的是一种从输入空间到输出空间的映射。

您可能关注的文档

文档评论(0)

yuzongxu123 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档