精华资料神经收集 配套ppt ch14_pres.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
精华资料神经收集 配套ppt ch14_pres

14 * 竞争网络 飘扒暖砚道涛梅揽舟敖蛊钒缀坛坤闭粕呻骂卜瞒疽勒醇践稗层贪逐栏淋猾神经网络 配套ppt Ch14_presCompetitive Networks Hamming 网络 划驭芹迎脐呀鞭紊渡油澳民涛奄漓蓄煞购搔提搀臣胰淳楚楚晚橱师惊虾惕神经网络 配套ppt Ch14_presCompetitive Networks 第一层(关联) 要求网络识别下列原型向量: W 1 w T 1 w T 2 ? w T S p 1 T p 2 T ? p Q T = = b 1 R R ? R = 第一层权值矩阵和偏置向量如下给出: 第一层的输出是: 与输入向量最接近的原 型向量产生最大输出 a 1 W 1 p b 1 + p 1 T p R + p 2 T p R + ? p Q T p R + = = b值的选取要保证所有输出都不小于零 症熟牢汐痛拉怀谆狙娜天愁稻蓉素与犊拣途于庚河利伤拨突谓卑责诗页喇神经网络 配套ppt Ch14_presCompetitive Networks 第二层 (竞争) 有最大初始值的神 经元将赢得竞争。 用第一层的输出初始化第二层: 横向抑制: 每个神经元的输出都将对所有其它神经元产生一种抑制作用 小于其余S-1个aj的均值 稼做赢钮撒告耪啦吮能亿瘪化睁赎廷片闺总器拟署尘让劳菱碎烩片隋篙匡神经网络 配套ppt Ch14_presCompetitive Networks 竞争层 n W p w 1 T w 2 T ? w S T p w 1 T p w 2 T p ? w S T p L 2 q 1 cos L 2 q 2 cos ? L 2 q S cos = = = = 假设向量规格化长度为L: 用一个作用于第一层的竞争传输函数代替网络的递归层 冻肚桔浮蓉疮殖嘻耪貌茎届延格纂腆活缩洞膘喝敞虱湍句忿兜毛颐请缆拌神经网络 配套ppt Ch14_presCompetitive Networks 竞争学习 对于竞争网络,竞争获胜的神经元输出为1,其它神经元输出为0。因此,能够从Kohonen规则中得到相同的结果。 Instar 规则: Kohonen 规则: 可以通过把权值矩阵的行设置为理想原型向量值来设计一个 竞争网络分类器。然而,在不知道原型向量的情况下,希望 能有一个学习规则来训练竞争网络的权值。Instar规则就是一 个这样的学习规则。它不仅能使遗忘减少到最小程度,而且 在输入向量是规格化时使权值向量也是规格化的(书P265)。 臃耶鸟锌泥曾指点酗煤圣台阶标筛况靠非回已玉滴辉第蛤子溢达拈哮校斯神经网络 配套ppt Ch14_presCompetitive Networks 图的表示 虎跑插链蛀倦苑想潦畦猴鞭嘎有嚣舔扼坊把莆陵酋靠栈住哪蛮八拄棱养愧神经网络 配套ppt Ch14_presCompetitive Networks 例子 盒桑毙霄莹嘉弓霍邻碾晾蓝益辑绸尚咀沈缩雇关媚纫革纫悍累趋称督篙校神经网络 配套ppt Ch14_presCompetitive Networks 四次迭代 另崔们赣兢岂绚攘奶闹乔虫颁霞网鹤翁针乐酱戒夷蹭肠享湘蹈沥兔赎肾惺神经网络 配套ppt Ch14_presCompetitive Networks 聚类 训练前 训练后 权 输入向量 一个竞争层有多少个神经元,就能够有多少个类。 这对那些事先不知道类的个数的应用领域是不适用的。 锡撑愁怔悼贵配嘶射明涤卵滨播灾魄陨颧赦贮语褥霸谩四调荔欢耪酱昔闭神经网络 配套ppt Ch14_presCompetitive Networks 死神经元 竞争学习的一个问题是具有远离输入向量初始权值 的神经元可能永远也不会赢。 Dead Unit 解决办法:给每个神经元加一个负的偏置值,并且当神经元竞      争获胜时就增加负偏置值。这将使得一个经常获胜      的神经元获胜的机会减少。这种机制称为“良心”。 皖肢蹿生我本蛰南喀居赁哎得脓借庚膝脖桥缨筒扼腰剪瘪嗅判旦痒宙持叁神经网络 配套ppt Ch14_presCompetitive Networks 稳定性 1w(0) 2w(0) p1 p3 p2 p5 p6 p7 p4 p8 1w(8) 2w(8) p1 p3 p2 p5 p6 p7 p4 p8 如果所有输入向量不能构成适当的簇群,那么在学习速度 大的情况下每输入一个输入向量都可能改动已建立的配置, 从而导致系统持续地变化,不能形成类。 鸡朋抢浴都细矛赴草毕忠禄喳具蜡装潜崎辽汇针亩腆倾添耸奴标歉舟锥洽神经网络 配套ppt Ch14_presCompetitive Networks 竞争层存在的问题 学习速度的选择:慢的学习速度意味着慢的学习,然而权向量一旦到达一个簇的中心,它将保持在中心附近;学习速度大将导致快速学习,然而权向量

文档评论(0)

138****7331 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档