自组织特征映射网络算法.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

**SOM网的权值调整域以获胜神经元为中心设定一个邻域半径,该半径圈定的范围称为优胜邻域。在SOM网学习算法中,优胜邻域内的所有神经元均按其离开获胜神经元的距离远近不同程度地调整权值。优胜邻域开始定得很大,但其大小随着训练次数的增加不断收缩,最终收缩到半径为零。第30页,共63页。**SOM网的运行原理训练阶段w1w2w3w4w5第31页,共63页。**SOM网的运行原理工作阶段第32页,共63页。**SOM网的学习算法Kohonen学习算法(1)初始化对输出层各权向量赋小随机数并进行归一化处理,得到,j=1,2,…m;建立初始优胜邻域Nj*(0);学习率?赋初始值。(2)接受输入从训练集中随机选取一个输入模式并进行归一化处理,得到,p?{1,2,…,P}。(3)寻找获胜节点计算与的点积,j=1,2,…m,从中选出点积最大的获胜节点j*。(4)定义优胜邻域Nj*(t)以j*为中心确定t时刻的权值调整域,一般初始邻域Nj*(0)较大,训练过程中Nj*(t)随训练时间逐渐收缩。第33页,共63页。**Kohonen学习算法SOM网的学习算法第34页,共63页。**(5)调整权值对优胜邻域Nj*(t)内的所有节点调整权值:i=1,2,…nj?Nj*(t)式中,是训练时间t和邻域内第j个神经元与获胜神经元j*之间的拓扑距离N的函数,该函数一般有以下规律:Kohonen学习算法SOM网的学习算法第35页,共63页。**可以选择?(t,N)指数衰减,即(6)结束检查学习率是否衰减到零或某个预定的正小数?Kohonen学习算法SOM网的学习算法第36页,共63页。**Kohonen学习算法程序流程第37页,共63页。**功能分析(1)保序映射——将输入空间的样本模式类有序地映射在输出层上。例1:动物属性特征映射。第38页,共63页。**功能分析第39页,共63页。**(2)数据压缩——将高维空间的样本在保持拓扑结构不变的条件下投影到低维空间。(3)特征抽取——高维空间的向量经过特征抽取后可以在低维特征空间更加清晰地表达。例2:SOM网用于字符排序。功能分析第40页,共63页。**第41页,共63页。第42页,共63页。**SOM网的设计1.输出层设计a.节点数设计节点数与训练集样本有多少模式类有关。如果节点数少于模式类数,则不足以区分全部模式类,训练的结果势必将相近的模式类合并为一类。这种情况相当于对输入样本进行“粗分”。如果节点数多于模式类数,一种可能是将类别分得过细,而另一种可能是出现“死节点”,即在训练过程中,某个节点从未获胜过且远离其他获胜节点,因此它们的权值从未得到过调整。在解决分类问题时,如果对类别数没有确切的信息,宁可先设定较多的节点数,以便较好的映射样本的拓扑结构,如果分类过细再酌情减少输出节点。“死节点”问题一般可通过重新初始化权值得到解决。第43页,共63页。**SOM网的设计1.输出层设计b.节点排列的设计输出层的节点排列成哪种形式取决于实际应用的需要,排列形式应尽量直观反映出实际问题的物理意义。例如,对于旅行路径类的问题,二维平面比较直观;对于一般的分类问题,一个输出节点节能代表一个模式类,用一维线阵意义明确结构简单。第44页,共63页。**SOM网的设计2.权值初始化问题SOM网的权值一般初始化为较小的随机数,这样做的目的是使权向量充分分散在样本空间。但在某些应用中,样本整体上相对集中于高维空间的某个局部区域,全向量的初始位置却随机地分散于样本空间的广阔区域,训练时必然是离整个样本群最近的全向量被不断调整,并逐渐进入全体样本的中心位置,而其他权向量因初始位置远离样本群而永远得不到调整。如此训练的结果可能使全部样本聚为一类。解决这类问题的思路是尽量使权值的初始位置与输入样本的大概分布区域充分重合。第45页,共63页。自组织特征映射网络算法第1页,共63页。**4.1竞争学习的概念与原理基本概念分类——分类是在类别知识等导师信号的指导下,将待识别的输入模式分配到各自的模式类中去。聚类——无导师指导的分类称为聚类,聚类的目的是将相似的模式样本划归一类,而将不相似的分离开。第2页,共63页。**相似性测量_欧式距离法基本概念同一类内各个模式向量间的欧

文档评论(0)

189****0266 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档