粗决策树动态规则提取算法研究及应用.docVIP

粗决策树动态规则提取算法研究及应用.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
粗决策树动态规则提取算法研究及应用 针对静态算法对大数据和增量数据处理不足的问题,构造了基于粗决策树的动态规则提取算法,并将其应用于旋转机械故障诊断中。将粗集与决策树结合,用增量方式实现样本抽取;经过动态约简、决策树构造、规则提取与选择、匹配4个步骤的循环迭代过程,实现了数据的动态规则提取,使得提取的规则具有更高的可信度;同时,将算法应用于旋转机械故障诊断这一动态问题中,验证了算法的有效性;最后,将所提算法分别与静态算法和增量式动态算法进行了效率对比分析,实验结果表明,所提算法能够以最精简的规则获得更多数据隐含信息。 粗集理论[1]主要用来处理模糊和不确定性知识,对数据进行约简、去除冗余,在保持分类能力不变的前提下,通过知识约简导出问题的决策和分类规则。近年来,吴顺祥等[2]利用粗集进行规则提取,提出了一种基于粗集理论的规则提取方法;谭俊璐等[3]利用决策树(decision tree)提取规则实现分类计算;丁春荣等[4]将粗集与决策树结合构造规则提取算法。石凯[5]将粗集理论中的属性约简与决策树算法相结合,提出了改进算法;胡煜等[6]从ID3算法的缺点出发,根据粗集理论完成了对ID3算法的改进,为建立决策树分析模型奠定了基础。 以上这些算法均是在静态数据研究背景下提出的,可以从海量数据中提取相对精确的知识,但这种规则提取方法只能针对静态数据,对于现实生活中的大量动态数据,以往的基于静态数据的规则提取算法很难得到正确的规则。而目前我们处于大数据时代,网络数据、股票数据、机械故障诊断收集数据等均具有明显的动态特征,直接应用静态数据下的算法,势必会使提取的规则产生很大的误差,因此,研究适合动态数据的规则提取算法显得尤为重要。 目前,关于动态规则提取算法的研究也有相关报道:如余峰林等[7]提出的基于差别矩阵的动态约简及规则提取和尹阿东等[8]提出的动态决策树算法研究等,但这些算法存在着求解速度慢、约简程度不够等缺陷。王杨等[9]提出的基于粗集和决策树的增量式规则约简算法比传统算法和粗集决策树增量知识获取算法(Rough setRule tree Incremental knowledge acquisition Algorithm, RRIA)在效率方面有所提高,但仍存在着提取的规则集不够精简等缺陷。因此,本文提出将粗集与决策树相结合,设计动态规则提取算法,同时兼顾约简精确程度和约简时间两方面,从而更有效地实现决策规则的提取。 本文算法的基本思想:抽取样本进行属性约简;按约简结果建立决策树;通过规则的准确度和覆盖度进行规则提取;用未抽取样本进行规则匹配,确定规则的有效性,并判断属性约简是否稳定(若得到稳定约简,即匹配成功;若没有匹配成功,则增大抽取样本,直到达到要求为止)。 1.1不可区分关系 信息系统S=(U,A,V, f),其中U为论域;A=C∪D,C为条件属性,D为决策属性;V是属性的值域; f是信息函数,a∈A,x∈U, f(x,a)∈V。当RC,IND(R)={(x,y)∈(U,U)|a∈B, f(x,a)=f(y,a)},表示是属性R不可区分的。 U/IND(R)为U的等价类[10]。 1.2属性约简和属性依赖度 R为一族等价类,当a∈R,若IND(R)=IND(R-{a}),则称a为R中不必要的;否则a为必要的。如果a∈A 都是R中必要的,称R ___;否则称R为依赖的。 若QP,如果Q是 ___的,且IND(Q)=IND(P),称Q为P的一个约简。CORE(P)=∩RED(P),其中CORE(P)为P的核,RED(P)为P的约简。 属性依赖度:K= ___x{|XiYj|/|Yj|},K表示决策分类对条件属性集的依赖度。 1.3动态约简 S=(U,CU{d})为一决策表,S′=(U′,C∪{d}) 为决策表的子决策表,U′U。F是决策表S的子决策表 ___,简称F族。将F族中所有子决策表约简的交集称为决策表S的F动态约简[11],即为DR(S,F)。表达式为: DR(S,F)=RED(S,d)∩∩S′∈FRED(S′,d 此方法限制太大,所以选择更为普遍的(F,ε)的约简: DR(S,F)={C∈RED(S,d): |S′∈F:C∈RED(S′,d)||F|≥1-ε} 其中ε∈[0,1],记为DRε(S,F)。 1.4区分矩阵与区分函数 决策表S=(U,C∪D,V, f)的区分矩阵是一个n×n矩阵,矩阵中的任一元素用以下公式计算: α(x,y)={a∈C|f(x,a)≠f(y,a)} 区分函数可定义为Δ=∏(x,y)∈U×U∑α(x,y),函数Δ的极小析取范式中的所有合取式是C的所有D

文档评论(0)

187****8606 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6013054242000004

1亿VIP精品文档

相关文档