第66节英神经网络学习.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第6.6节 神经网络学习 王庆江 计算机科学与技术系 qjwang@ 摘自《Talking Nets: An Oral History of Neural Networks》封面 6.6.1 神经网络基础 公元前400年左右,柏拉图和亚里士多德就曾对人类认知、记忆、思维进行过研究; 19世纪末,出现了神经元学说;美国生物学家W. James在《Physiology》一书中提到,“人脑中两个基本单元靠得较近时,一个单元的兴奋会传到另一个单元; 20世纪40年代,神经解剖学、神经生理学、神经元的电生理过程等有了突破性进展。 人脑中神经元(神经细胞)的结构 神经元之间的电信号传递 生物神经元的结构 1943年,W.S. McCulloch和W.A. Pitts合作提出了第一个人工神经元模型(M-P模型); M-P神经元模型 1949年,Donala U. Hebb在“The Organization of Behavior”一书中认为 学习的过程最终发生在神经元之间的突触部位,突触的连接强度随着突触前后神经元的活动而变化; 连接权的学习律正比于突触前后两个神经元的活动状态值的乘积; 可假设权是对称的,细胞的互连结构是通过改变彼此的连接权创造出来的。 Hebb规则 这是神经网络的第1个学习算法; 神经元的输出 连接权值的调整公式 1957年,Frank Rosenblatt在M-P模型基础上,定义了一个具有单层计算单元的神经网络结构,取名为“感知器”。 设计一个神经网络模型, 除了明确网络的结构、神经元的传输函数(f); 还要给出学习算法。 学习算法用于得出神经网络中的各个参数。 学习算法通常是迭代算法,对应神经网络的演变过程; 算法收敛到一个稳定状态时,神经网络的各参数(连接权值、阈值等)就基本不变了; 这个过程称为神经网络的学习或训练。 人工神经网络的两个操作模式 训练模式(training mode) 准备大量的有教师指导的(或无教师指导的)的训练样本(即实例),对ANN进行训练,确定ANN的内部参数(甚至结构)。 使用模式(using mode) 输入一个实际例子,让ANN分析并给出结果。 “感知器”是怎么训练的呢? 假设每个样本含 n 个属性,用向量(x1, x2, …, xn)表示;若X 为样本变量, X∈Rn; wij 是 xi 到神经元 j 的连接权值, Wj 是神经元 j 的输入连接的权值向量,即Wj =(w1j , w2j , …, wnj ); 先随机设置{wij}和{θj },θj 是神经元 j 的阈值; 不同神经元的参数(包括连接权值和阈值)的学习是相互独立的,故只需给出一个神经元的学习算法。 神经元 j 的参数怎么学习呢? 样本必须是有教师指导的,即预先知道其分类; 输入(x1, x2, …, xn)时,神经元j的输出应为 dj 。 对于离散感知器,yj 按下式计算。 则wij 的调整规则是 wij(t +1) = wij(t) + η(dj - yj) xi “感知器”对线性可分问题具有分类能力 若样本空间为Rn,存在n-1维的超平面可将样本分为两类,则称线性可分。 例:连接强度W的学习过程(η=0.4) “感知器”无法解决线性不可分问题; 1969年,Minsky和Papert指出了“感知器”的这种局限性,例如,“感知器”无法实现“异或”逻辑。 设输入向量X=(x1, x2),神经元j的输出为: 学习逻辑“与”时,有 至少存在一组w1j 、w2j 和θ满足上述方程组,即单结点感知器对2输入的逻辑“与” 问题有分类能力。 学习逻辑“异或”时,有 不存在任何一组w1j 、w2j 和θ满足上述方程组,即单结点感知器不能对2输入的逻辑“异或” 问题求解。 多层感知器 采用二层或多层感知器; 只允许某一层的连接权值可调,因为无法知道网络隐层的神经元的理想输出; 要允许各层的连接权值可调,需要用1986年提出的误差反向传播(即BP)学习算法。 多层感知器可解决单层感知器无法解决的某些问题,例如,用二层感知器就可解决异或问题。 70年代,集成电路使计算机快速发展; 在“感知器”局限性的困扰下,机器学习的热点由连接主义(即神经网络)转向符号主义; 70年代被认为是ANN的研究低潮期,但仍有ANN的一些重要成果出现。 72年,芬兰T. Kohonen教授提出了无教师学习网络SOM(Self-Organizing feature Map); 76年,美国Grossberg教授提出了ART(Adaptive Resonnance Theory)。 自组织竞争神经网络模型 生物神经网络中,有侧抑制现象; 一个神经元兴奋,通过突触抑制相邻神经元; 它越兴奋,对周围神经元的抑制作用

文档评论(0)

152****6235 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档