- 1、本文档共4页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
浅析基于EKF的模糊神经网络快速自组织学习算法.doc
浅析基于EKF的模糊神经网络快速自组织学习算法
摘 要:为了快速地构造一个有效的模糊神经网络,提出一种基于扩展卡尔曼滤波(EKF)的模糊神经网络自组织学习算法。在本算法中,按照提出的无须经过修剪过程的生长准则增加规则,加速了网络在线学习过程;使用EKF算法更新网络的自由参数,增强了网络的鲁棒性。仿真结果表明,该算法具有快速的学习速度、良好的逼近精度和泛化能力。
关键词:模糊神经网络;扩展卡尔曼滤波;自组织学习
doi:10.3969/j.issn.1001-3695.2010.07.016
Fast self-organizing learning algorithm based on EKF for fuzzy neural based on extended Kalman filter for fuzzy neural , the eters an filter approach and the robustness of the ulation results sho can achieve fast learning speed, high approximation precision and generation capability.
Key an filter(EKF); self-organizing learning
模糊神经网络起源于20世纪80年代后期的日本,由于其简单、实用,已经被广泛应用在工业控制、系统辨识、模式识别、数据挖掘等许多领域[1~4]。然而,如何从可用的数据集和专家知识中获取合适的规则数仍然是一个尚未解决的问题。为了获取模糊规则,研究人员提出了不同的算法,如2.1.2 可容纳边界
从某种意义上来讲,模糊神经网络结构的学习是对输入空间的高效划分。模糊神经网络的性能和结构与输入隶属函数紧密相关。本文使用的是高斯隶属函数,高斯函数输出随着与中心距离的增加而单调递减。当输入变量采用高斯隶属函数时,则认为整个输入空间由一系列高斯隶属函数所划分。如果某个新样本位于某个已存在的高斯隶属函数覆盖范围内,则该新样本可以用已存在的高斯隶属函数表示,不需要网络生成新的高斯单元。
可容纳边界:对于第i个观测数据(xi,ti),计算第i个输入值xi与已有RBF单元的中心cj之间的距离di(j),即
di(j)=‖xi-cj‖;i=1,2,…,n; j=1,2,…,u(6)
其中:u是现有的模糊规则或RBF单元的数量。令
di,min=arg min(di(j))(7)
如果di,mingt;kd,kd=max[dmax×γi,dmin](8)
则说明已存在的输入隶属函数不能有效地划分输入空间。因此,需要增加一条新的模糊规则,否则,观测数据可以由已存在的距离它最近的RBF单元表示。其中:kd是可容纳边界的有效半径;dmax是输入空间的最大长度;dmin是所关心的最小长度;γ(0lt;γlt;1)是衰减因子。
2.1.3 误差下降率
传统的学习算法把误差减少率(ERR)[5]用于网络生长后的修剪过程,算法会因为修剪过程而增加计算负担,降低学习速度。本文把误差减少率用于生长过程形成一种新的生长准则,算法无须经过修剪过程,从而加速网络的学习过程。
给定n个输入/输出数据对(xi,ti),t=1,2,…,n,把式(3)看做线性回归模型的一种特殊情况,该线性回归模型为
t(i)=uj=1hj(i)θj+ε(i)(9)
式(9)可简写为
D=HΘ+E(10)
D=TT∈Rn是期望输出,H=φT∈Rn×u是回归量,Θ=WT∈Ru是权值向量,并且假设E∈Rn是与回归量不相关的误差向量。
对于矩阵φ,如果它的行数大于列数,通过QR分解:
H=PQ(11)
可把H变换成一组正交基向量集P=[p1,p2,…,pu]∈Rn×u,其维数与H的维数相同,各列向量构成正交基,Q∈Ru×u是一个上三角矩阵。通过这一变换,有可能从每一基向量计算每一个分量对期望输出能量的贡献。把式(11)代入式(10)可得
D=PQΘ+E=PG+E(12)
G的线性最小二乘解为G=(PTP)-1PTD,或
gk=pTkDpTkpk;k=1,2,…,u(13)
Q和Θ满足下面的方程:
QΘ=G(14)
当k≠l时,pk和pl正交,D的平方和由式
您可能关注的文档
最近下载
- 《建筑抗震设计规范》(GB50011-2010)正式版.PDF VIP
- 一种用于辅助降血糖的保健食品及其制备方法.pdf VIP
- 糖尿病性视网膜病变科普讲座课件.pptx VIP
- 新概念英语第三册课文翻译及学习笔记:Lesson7.docx VIP
- GB∕T_18710-2002_风电场风能资源评估方法.docx VIP
- 初二深圳数学试卷.docx VIP
- 供货方案人员配备方案.docx VIP
- 2026版本最新欧洲euro-ncap-supporting-protocol-safe-driving-crash-avoidance-virtual-testing-v09.pdf VIP
- 稻虾共养可行性报告.pptx
- 整体性治理视角下西江航运干线船闸管理体制研究的中期报告.docx VIP
文档评论(0)