人工神经网络及其应用 第6讲 自组织网络.pdf

人工神经网络及其应用 第6讲 自组织网络.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
人工神经网络及其应用 第6讲 自组织网络 何建华 电信系,华中科技大学 2003年3月7日 在实际的神经网络中,比如人的视网膜中,存在 着一种“侧抑制”现象,即一个神经细胞兴奋 后,通过它的分支会对周围其他神经细胞产生 抑制。 自组织竞争人工神经网络正是基于上述生物结构 和现象形成的。它能够对输入模式进行自组织 训练和判断,并将其最终分为不同的类型。 与BP 网络相比,这种自组织自适应的学习能力进 一步拓宽了人工神经网络在模式识别、分类方 面的应用,另一方面,竞争学习网络的核心— —竞争层,又是许多种其他神经网络模型的重 要组成部分。 8.1几种联想学习规则 格劳斯贝格(S .Grossberg)提出了两种类型的神经 元模型:内星与外星,用以来解释人类及动物 的学习现象。 内星可以被训练来识别矢量; 外星可以被训练来产生矢量。 图8.1 格劳斯贝格内星模型图 内星是通过联接权矢量W接受一组输入信号P 图8.2 格劳斯贝格外星模型图 外星则是通过联接权矢量向外输出一组信号A 。 它们之所以被称为内星和外星,主要是因为其网络的 结构像星形,且内星的信号流向星的内部;而外星的 信号流向星的外部。 8.1.1内星学习规则 实现内星输入/输出转换的激活函数是硬限制函数。 可以通过内星及其学习规则来训练某一神经元节点只响 应特定的输入矢量P ,它是借助于调节网络权矢量W近 似于输入矢量P来实现的。 单内星中对权值修正的格劳斯贝格内星学习规则为: (8 .1) 由(8 .1)式可见,内星神经元联接强度的变化Δw1j是与 输出成正比的。如果内星输出a被某一外部方式而维护 高值时,那么通过不断反复地学习,权值将能够逐渐趋 近于输入矢量p 的值,并趋使Δw 逐渐减少,直至最终 j 1j 达到w =p ,从而使内星权矢量学习了输入矢量P ,达 1j j 到了用内星来识别一个矢量的目的。另一方面,如果内 星输出保持为低值时,网络权矢量被学习的可能性较 小,甚至不能被学习。 1 2 现在来考虑当不同的输入矢量p 和p 分别出现在同一内星 时的情况。 首先,为了训练的需要,必须将每一输入矢量都进行单位 归一化处理。 1 当第一个矢量p 输入给内星后,网络经过训练,最终达到 1 T 2 W =(p ) 。此后,给内星输入另一个输入矢量p ,此时 2 1 内星的加权输入和为新矢量p 与已学习过矢量p 的点 积,即: 因为输入矢量的模已被单位化为1,所以内星的加权输 1 2 入和等于输入矢量p 和p 之间夹角的余弦。 根据不同的情况,内星的加权输入和可分为如下几种情 况: 2 1 1) p 等于p ,即有θ =0,此时,内星加权输入和为1; 12 2 1 2) p 不等于p ,内星加权输入和为0 ; 2 1 3)当p =-p ,即θ =180°时,内星加权输入和达到

文档评论(0)

xingyuxiaxiang + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档