- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数学的实践与认识一般模糊极小极大神经网络的改进研究
编号:13-1955
一般模糊极小极大神经网络的改进研究
高志文, 金 智, 李风军?
(宁夏大学 数学计算机学院, 宁夏 银川750021)
摘要: 针对一般模糊极小极大神经网络在处理重叠超盒和包含超盒时, 出现新的类而标识为未知类, 进而无法达到聚类预期效果的问题, 本文提出了通过超盒的收缩过程来加入新类或删除一个已存在类的一般模糊极小极大神经网络, 它继承了一般模糊极小极大神经网络的优点, 并且避免了一般模糊极小极大神经网络在分类时的随意性, 弥补了一般模糊极小极大神经网络无法达到聚类预期效果的目的, 以及提高了模式分类的准确性和高效性. 最后, 通过实例验证了该方法实用有效.
关键词: 一般模糊极小极大神经网络; 聚类; 超盒扩张; 收缩过程
中图分类号: TP183 文献标识码: A
Research on improved general fuzzy min-max neural network
GAO Zhi-wen, JIN Zhi, LI Feng-jun?
(College of Mathematics and Computer, Ningxia university, Ningxia yinchuan 750021, China)
Abstract: Through adding new class or deleting an existing class of general fuzzy min-max neural network(GFMN), a new GFMN is proposed. It inherits the merit of the GFMN. A new GFMN avoids randomness of the traditional GFMN in classification and makes up the purpose of the traditional GFMN cant reach clustering the desired effect. At the same time, it improves the accuracy and efficiency in the pattern classification. The experimental results demonstrate the effectiveness of this new approach.
Key words: GFMN; clustering; hyperbox expansion; contraction process
1 引言
我们知道, 一般模糊极小极大神经网络(general fuzzy min-max neural network, GFMN)学习样本数据时是通过网络自动调整超盒的大小来消除重叠区的[1-2]. GFMN的主要优点是可以同时处理被标记数据和未被标记数据[3]. 但该网络存在一定不足, 不能够完全聚类和自适应在线学习, 其训练样本仍然需要部分标识出来; 当遇到新的类时, 则只能将其全部归为未知的类, 进而无法达到聚类的预期效果. 本文提出改进后的GFMN正好填补了这一不足. 在学习实验样本过程中, 网络试图包含这个实验样本于已存在的同一类的超盒中, 那么
这个过程被称为超盒扩张. 若超盒扩张不存在, 则网络加入一个新的超盒, 并且属于同一类的超盒的聚合形成一个完整的类. 通过修改其结构和学习算法, 实现了加入新类或删除一个已存在类功能的GFMN, 解决了原有算法中存在的不足之处. 最后, 以对企业资信评估分析为例来验证本文提出的结构和学习算法的有效性.
2 改进的GFMN模型与拓扑结构
2.1 重叠模型
在解决模式分类问题中, 我们首先利用GFMN处理训练标记样本. 图1描述了一种情况: 当两个超盒存在重叠, 为了消除重叠, 超盒则需要收缩. 图1(b)是收缩过程的结果. 记B, C各自属于类1和类2的隶属度为, .
观察B, C隶属度的变化:
收缩过程前: 和
和
收缩过程后: 和
和
图1 重叠问题
B, C各自属于类1和类2的隶属度发生变化, 说明收缩过程同时也导致了训练误差的存在, 同样非模糊区域(即灰色区域)也受到干扰. 针对图1类型的重叠, 改进后的GFMN在训练过程中加入重叠补偿神经元, 使网络的准确性更高.
重叠补偿神经元是一个超盒, 等同于属于不同类的两个超盒间的重叠部分. 重叠补偿神经元产生对应于不同类的两个输出值(如图2(a)). 当测试集数据落入重叠区域, 重叠补偿神经元被激活, 激
文档评论(0)