- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于训练集局部加权的C4.5算法改进研究.doc
基于训练集局部加权的C4.5算法改进研究 摘要:C4.5算法采用信息增益率来构造决策树,克服了选择较多值的属性的趋向,具有处理连续属性的能力。在处理大数据集时,表现出效率较低,忽略样本集中的不同样本与测试数据的距离差异。该文提出了一种基于训练集局部加权的C4.5改进算法,根据欧式距离或汉明距离来定义样本的权值,将权值更新到训练集中,重新计算的信息增益率反映了训练样本的差异对测试数据的影响,并且在处理大数据集时,根据权值排序和设置的阈值简化数据集,降低了计算复杂度,提高效率。 关键词:C4.5;信息增益比;局部加权;数据集;邻近距离 中图分类号:TP391 文献标识码:A 文章编号:1009-3044(2016)16-0202-03 Abstract: C4.5 algorithm uses information gain-ratio to construct a decision tree, and overcome the tendency to select the attribute onmore values, with the ability to handle continuous attributes.But it showless efficient when dealing with large data sets and ignoring the differences of distance from the sample set and test data set.Based on training set weighted locally, This paper proposes a suite of algorithm of improvement for C4.5algorithm.The sample weights ,which are defined according to the Euclidean distance or Hamming distance, update to the training set.On this basis, information gain-ratio which is recalculated reflects the impact of the differences of distance from the sample set and test data set.Therefore,the proposed algorithm can reduces the computational complexity and improves efficiencywhen dealing with large data sets,using the simplifiedsample set based onweight sorting and the threshold. Key words:C4.5; information gain-ratio; weighted locally; data set; near distance 1 概述 ID3算法根据计算信息增益,选择有较高信息增益的属性进行节点分裂,对于离散属性集Values来说,增加一个ID属性,每条属性都有不同的ID,计算信息增益时,属性ID产生的信息增益是最大的。如果选择属性ID分裂节点,将为每条数据产生一个分支,这是没有意义的。C4.5算法是ID3的改进算法,其核心思想是根据属性的信息增益率(Gain-ratio)代替信息增益(Information Gain)来选择属性分裂节点来构造决策树,信息增益率由选取属性的信息增益和按照选取的属性划分样本集的均匀性共同决定,克服了ID3算法趋于选择较多值的属性的缺点,通过断点来处理连续数据,在决策树构造过程中进行剪枝来解决过拟合问题,产生的规则易于理解[1]。 在实际应用中,样本集的分布情况会影响分类器的分类效果。有的样本集类别不均衡,存在大类和小类,有些属性对大类分类效果较好,有些属性对小类分类效果较好[2]。有的样本集属性不均衡,有的属性取值较多,而有的属性值取值较少。因此,分类器的好坏与训练集中的样本数据质量密切相关。数据集的选择应该分布较均衡,尽量选择具有代表性的数据。数据集中的不同样本对于测试数据的作用是不一样,例如,对于用来预测2015年房价的数据集,2014年的样本显然比2004年的样本更有用[3]。 C4.5算法基于统计学规律,根据信息熵来选择属性分裂节点,考虑的是静态的整体性,不是动态的整体性,它没有考虑测试集和训练集之间的距离关系。在K最近邻(k-Nearest Neighbor,KNN)算法中,如果一个测试数据在特征空间中的
文档评论(0)