训练样本分布不均KNN分类改进算法.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
训练样本分布不均KNN分类改进算法

训练样本分布不均KNN分类改进算法   摘要: 分类是数据挖掘的重要组成部分,它根据类标号已知的数据建立模型,进而使用该模型来预测类标号未知的数据所属的类。KNN 方法作为一种简单、有效、非参数的分类方法,在文本分类中得到广泛的应用,但是这种方法在训练样本的分布不均匀时会造成分类准确率的下降。针对KNN 方法存在的这个问题,本文提出了一种基于相对距离的KNN分类方法,这种方法减少了边界点处测试样本的误判。实验结果显示,这种方法具有很好的性能。 Abstract: Classification is an essential part of data mining. It builds a model according to the data whose class labels are known, and then uses this model to predict the classes of the data whose class labels are unknown. As a simple, effective and nonparametric classification method, KNN method is widely used in document classification. But KNN classifier may decrease the precision of classification because of the uneven density of training data. In this paper, a relative-distance method which solves problem mentioned above is presented. It decreases the wrong classification between the edge of classes. The experiment also shows that it has good performance. 关键词: KNN;相对距离;准确率 Key words: KNN;relative-distance;precision 中图分类号:TP181 文献标识码:A 文章编号:1006-4311(2014)02-0180-03 0 引言 KNN分类算法是一种易于理解和实现的算法,其基本思想是在训练样本中找到测试样本的k个最近邻,然后根据这k个最近邻的类别来决定测试样本的类别;KNN分类是一种基于要求的或懒惰的学习方法,它存放所有的训练样本,直到测试样本需要分类时才建立分类,由于现在的计算机有强大的计算性能,KNN算法的较差的时间性能已不在是太大的问题;但是,训练样本分布的不均匀性也会造成分类准确率的下降。 本文提出了一种基于相对距离的KNN算法,在计算测试样本与训练样本之间的距离时,利用相对距离进行计算。实验结果显示削弱了训练样本分布的不均匀性对分类性能的影响,提高了分类的准确率。 1 训练样本分布不均对分类结果的影响 KNN方法实际上是一种基于类比的学习方法,这就要求训练样本中样本必须具有代表性,这种代表性不仅应该体现在样本间的距离(或相似度)上,还应该体现在样本分布的均匀性上。为了描述方便,下面我们以二维空间两种分类为例,看一下训练样本的分布密度对KNN分类器分类结果的影响。从图1我们可以看到KNN方法存在以下问题。在类边界区域,训练样本分布的不均匀性可能会造成测试样本类别的误判。在图1中,我们可以直观地看到测试样本应该属于类2,但是由于类1比类2的分布密度要大,这样当我们选测试样本的7个最近邻来判别它的类别时,分类器就出现了误判,如果k值更大些,则误判更为明显。而在实际设计分类器的时候,由于一些类别比另一些类别的训练样本更容易获得,往往会造成训练样本分布的不均匀,而且,即使训练样本在各个类中的数目基本接近,由于其所占区域大小的不同,也会造成训练样本分布的不均匀。 针对训练样本分布不均时KNN分类算法中容易出现误判的问题,本文提出基于相对距离的KNN算法。其基本思想是:首先计算训练集各个类的1-最近邻距离均值;然后对测试样本利用相对距离进行KNN分类。 2 基于相对距离的KNN算法 2.1 相关概念 为便于描述,我们引入以下一些概念: 给定一个样本集D={X1,…,XL},其中Xi∈Rn,i=1,…,L;设样本共有ClassNum个类;设Ci表示第i类中的所有样本的集合,且Ci∩Cj=Φ(i,j=1,…,ClassNum),样本集也可表示为:D=C1∪C2∪…∪Cr。 定义1 两个样本间的距

文档评论(0)

linsspace + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档