基于粗糙集的并行约简研究-计算机软件与理论专业论文.docxVIP

基于粗糙集的并行约简研究-计算机软件与理论专业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
究粗糙集理论是数据挖掘的重要工具,也是粒计算理论的一个重要分支。经典 究 粗糙集理论是数据挖掘的重要工具,也是粒计算理论的一个重要分支。经典 粗糙集是由波兰学者Pawlak于上世纪80年代提出来的。粗糙集理论通过对象间 的不可区分关系(等价关系),为不完全和不充分信息的处理提供了一套系统的 方法。当前粗糙集理论已经成为计算机科学、信息科学、人工智能等领域的研究 热点。 知识约简是粗糙集理论的重要应用,也是其核心问题之一。知识约简是指在 不改变整个数据集的分类能力的情况下,消去信息系统或者决策表中的冗余。由 于数据集本身的复杂性和传统约简方法的局限,在处理海量数据时,粗糙集理论 没有体现出它应有的活力。许多学者在知识约简方法的改进上做了大量的探索。 例如并行约简的概念。 并行约简是近两年出现的知识约简研究的热点,它利用并行计算的思想和方 法,应用到基于粗糙集的数据挖掘当中。并行约简的概念比较新,理论体系、方 法和技术等均有待完善,目前还没有一种高效的并行属性约简算法,值得研究和 探索。本文围绕基于粗糙集的并行约简定义、性质的讨论,对不同形式的数据集 进行子表抽样,子表并行约简和提取决策规则展开。 论文所做的工作有: (1)针对不同的数据特点,引入相应的并行约简定义,并进行局部的扩展和 算法研究。本文一共定义了三种类型的并行约简:基于正域的并行约简、基于差 别矩阵的并行约简以及基于属性重要度的并行约简,并同时完成了这三种形式的 并行约简算法设计。 (2)针对基于正域的并行约简的条件限制,提出了变精度并行约简概念,并 对变精度并行约简的性质进行了讨论。 对变精度并行约简的性质进行了讨论。 (3)针对不同性质的数据集,设计了不同的子表抽取策略。并在如何对海量 数据进行子表抽样问题中,提出了一种聚类抽取子表的方法。 (4)对现有的决策规则提取方法的局限性进行了分析,针对增量式规则提取, 给出了一种解决方法。 关键词:粗糙集;并行约简;变精度并行约简;子表抽取策略;规则提取 1 II 擎’ rl SED SED ON Abstract Rough set theory,proposed by Poland scholar Pawlak in 1 982,is a powerful tool for data mining and an important branch of Granular computing.The rough set theory provides a systematic method for dealing with imperfect and insufficiency information by indistinguishable relationship.Rough set has become a hot topic in computer science,information science and artificial intelligence etc. Knowledge reduction is an important application and a core issue in rough set theory.Knowledge reduction deletes the redundancy information in information systems or decision tables while it does not change the classification of whole dataset. Because of the complexity of the dataset and the localization of traditional reductions, rough set can’t show its vitality while we deal with the mass data.Many scholars make an attempt on improvement of knowledge reduction algorithm,such as parallel reduction. Parallel reduction has become a hot topic in recent years.It makes use of the idea and method of parallel computing,and can be used in data mining that based on rough set.Because Parallel reduction is a newly concept,its paradig

您可能关注的文档

文档评论(0)

131****9843 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档