- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第四章 自组织竞争学习神经网络模型
第四章 自组织竞争学习 神经网络模型 在生物神经网络中,存在着一种侧抑制现象,即当一个神经细胞兴奋后,会对其周围的其它神经细胞产生抑制作用。这种抑制使神经细胞之间出现竞争,“强者”越“强”,“弱者”越“弱”,最终形成一个强兴奋的中心细胞,而在其周围的神经细胞都处于抑制状态。 利用这种竞争性的无导师学习策略,学习时只需输入训练模式,网络就会对输入模式进行自组织,达到识别和分类的目的。 具有这种性质的网络有: 自组织特征映射 SOM 对传神经网络 CPN 自适应共振模型 ART 认知机模型等。 第一节 自组织特征映射 自组织特征映射SOM是由芬兰的Kohonen教授于1981年提出的一种神经网络模型,它的原理是基于生物神经细胞的如下二种功能: 1.实际的神经细胞中有一种特征敏感细胞,在外界信号的刺激下,通过自学习形成对某一种特征特别敏感的神经元。 2.生物神经细胞在外界的刺激下,会自动聚集而形成一种功能柱,一个功能柱的细胞完成同一种功能。 4.1.1 自组织特征映射的结构和工作原理 自组织特征映射的基本结构分成输入和输出(竞争)两层,如图4.1所示。 输入层神经元与输出层神经元为全互连方式,且输出层中的神经元按二维形式排列,它们中的每个神经元代表了一种输入样本。 所有输入节点到所有输出节点之间都有权值连接,而且在二维平面上的输出节点相互间也可能是局部连接的。 而对改变节点竞争结果起决定作用的还是输入层的加权和,所以在判断竞争网络节点胜负的结果时,可忽略竞争层节点之间的权值连接。 在兴奋中心神经元C 周围 Nc 区域内的神经元都有不同程度的兴奋,而在 Nc以外的神经元都被迫处于抑制状态。这个 Nc区域可以具有正方形、六角形等形状,如图4.2所示。 设输入信号模式为 ,输出神经元 i与输入神经元连接的权值为 则输出神经元 i 的输出为 对于输出神经元 k 以及其周围的8个相邻的神经元仍可按 Hebb 法则进行自适应权调整, 即有 自组织的过程就是通过学习,逐步把权向量旋转到一个合适的方向上,即权值的调整方向总是与 X 的方向一致(无须决策和导师),使 正比于 。其数学表示为 上述介绍中的学习规则都是使用了最大输出的学习规则。 但是事实上有两种学习规则。 最大输出规则: 最小欧氏距离规则: 4.1.2 SOM 的算法 SOM 算法有三个关键点: 对于给定的输入模式,确定竞争层上的获胜单元。 按照学习规则修正获胜单元及其临域单元的连接权值。 逐步减小临域及学习过程中权值的变化量。 具体步骤(共6步)为: 1.随机选取一组输入层神经元到输出层神经元之间的权值; 2.选取输出神经元 i 的邻接神经元集合 Si , 如图4.3所示。Si(0) 是初始时刻为 0 时的神经元集合形状,Si(t) 为 t 时刻的神经元集合形状; 3.输入一个新样本; 4.计算输入样本与每个输出神经元 i 之间的欧几里德距离,并选取一个有最小距离的输出神经元 i* ; 5.按照下式修改输出神经元 i* 及其相邻神经元的连接权值,即 式中 为学习系数,且 随时间逐渐变为零; 6.重复3-5的学习过程。 在这个算法中,是根据最小欧几里德距离来选择神经元 i* 的。实际应用中也可以改成以最大响应输出作为选择的依据,例如选用(4.2)式。 在学习过程中,学习系数 及邻接集合 Si(t) 的大小是逐渐变小的。 的初值 可以较大,随着学习时间的增长而减小,常用的计算式为 邻接集合的大小也随学习过程的迭代而减小,设开始的领域宽度为 Si(0) ,随迭代次数减小的计算方法为 4.1.3 SOM 网络的应用 例1:设一维的 SOM 分类网络如图4.6所示,通过学习可将下列输入模式集合分成A和B两类。设输入模式为:P1=101,P2=100,P3=010,P4=011。 对于这四个输入模式,我们先求出它们之间的欧几里德距离,得到如下的一个距离关系矩阵 D 显然 d11=d22=d33=d44=0, d12=d21=d34=d43=1,d13=d31=d24=d42=3, d14=d41=d23=d32=2, 因此有 定义两个模式属于同一类是指它们的距离 ,此时 P1 和 P2 属于 A 类
文档评论(0)