- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE \* MERGEFORMAT9
实验三 Hopfield 网络学习算法的简单应用
1.不同印刷版本数字8的识别
实验目的
加深对Hopfield 网络学习算法的理解
通过实验了解Hopfield学习算法的工作原理
通过上机实验掌握具体的实现方法
实验原理
Hopfield 网络
Hopfield 网络是一种具有全互联结构的递归神经网络,其具有反馈机制的非线性动力学系统,反映了生物神经系统结构的复杂性。
该网络一般分为离散型(DHNN)和连续型(CHNN)两种,其标准的网络能量函数可以表示为:.式中:是神经元i和神经元j的连接权值;是神经元i的输入阈值;和分别是神经元i和神经元j的输出值。
在满足一定条件下,能量函数的能量在网络运行过程中不断减小,最后趋于稳定的平衡状态。Hopfield 网络自提出以来,已成功应用于多个方面。
网络的定义
一个 n 阶的 Hopfield 网络是一个五元组:
其中:
1)GF:规定 DHN(n) 拓扑结构的扩展模糊图:
其中,N(GF) = {Ni(?i)?1?i?n} 是非空神经元集合,每一个神经元 Ni 附有阈值 ?i;E(GF) = {eij?1?i,j?n} 是边的集合,eij 是 Ni?Nj 的边; A(GF) = (wij)n?n 是联系矩阵,wij 是 Ni?Nj 的联系效率。
2)IF ? N(GF):输入域。
3)OF ? N(GF):输出域。
4)WA:工作算法,令 oi(t) ? {-1,1} 为 Ni 在 t 时刻的状态,o(t) =(o1(t),o2(t),…,on(t))T 为 N(GF)在 t 时刻的状态向量 (t=0,1,2,…),则:
其中,oI ? {-1,1}nI ?1 (nI ?n) 和 oO ? {-1,1}nO ?1 (nO ?n) 分别为 IF 和 OF 的状态向量。
5) OA:自组织算法
对 Hopfield 网络而言,一般情况下,IF = OF = N(GF),即: oI = oO = o。实际上,给定神经元的阈值和神经元之间的联系效率即可唯一地确定一个Hopfield 网络,给定神经元的阈值和神经元之间的联系效率即可唯一地确定一个Hopfield 网络。
因此,一个 n 阶的 Hopfield 网络可简记为:。
其中:
1) W = A(GF) :DHN(n) 联系矩阵。2) ? =(?1,?2,…,?n)T:DHN(n) 阈值向量
N阶DHN 拓扑结构
工作算法
Hopfield 网络的工作模式:
设 N 为 n 阶 Hopfield 网络 DHN(n) 每一时刻需要调整其状态的神经元的数量,则按 N 的数量:
串行模式 (Serial Mode):N = 1
并行模式 (Parallel Mode): N≥2.(部分并行模式和全并行模式)
按每一时刻选择 DHN(n) 需要调整其状态的神经元的方式的不同,又可分为:
确定模式 (Deterministic Mode)
随机模式 (Random Mode)
对于 Hopfield 网络的工作算法 WA:
如果在给定的离散时刻 t?{0,1,2,…},NSk (k? {1,2,…,m} 的选择则是随机地,则 WA 为随机工作模式,否则,为确定性工作模式。
如果 ?k? {1,2,…,m},|Ik| = 1,即每一个集合 NSk (k? {1,2,…,m} 中只有一个神经元,则 WA 为串行模式;如果 m=1,则 WA 为全并行模式;如果 ?k? {1,2,…,m},1|Ik|m,则 WA 为部分并行模式。
Hopfield 网络记忆或学习
Hopfield 网络的运行过程是将初始状态转移至稳定状态的过程。Hopfield 网络由初始状态运行至稳定状态的过程可以被理解为神经系统的联想记忆过程。稳定状态就是 Hopfield 网络记忆的内容。
外积法 (Outer Product Method) 是 Hopfield 网络综合设计方法之一。该方法源于 Hebb 学习律。
Hebb 学习律:设有一个 n 维的 Hopfield 网络DHN(n),对任意 i,j?{1,2,…,n},若 DHN(n) 的状态值 oi 和 oj 符号相同,即 DHN(n) 的神经元 Ni 和 Nj 同时处于兴奋或抑制,则它们的联系效率 wij 应该得以加强,反之, wij 应该减弱。
外积法 (1):
向量形式为:。
外积法 (2):
相应的向量形式为:
实验内容
以数字 8 为例,选择 N 个不同印刷字体的 8,编码后对其进行正交化,然后将其作为范例集合 Exemplar = {O(s)|s=1,2,…,N} 中的范例。
编码: O(9) = (-1, -1, -1,-1,-1,1,1
原创力文档


文档评论(0)