基于KL距离的半监督分类算法-计算机软件与理论专业论文.docxVIP

基于KL距离的半监督分类算法-计算机软件与理论专业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于KL距离的半监督分类算法-计算机软件与理论专业论文

中文摘要随着网络、医学等技术的发展,每时每刻都会产生大量的数据,为了储存和 中文摘要 随着网络、医学等技术的发展,每时每刻都会产生大量的数据,为了储存和 管理数据,还需要耗费大量的人力和物力。在这种背景下,数据挖掘方法被用于 处理分类等实际应用中。但是,在传统分类任务中,只有通过增加人工标识的己 知训练样本来提高分类精准度,造成了标注成本的增加。因此,围绕如何利用未 标识样本来提高分类性能的研究与应用就引起了学术界和工业界越来越多的关 注,其中,基于已知正类样本和未标识样本的半监督分类就成了研究的热点问题 之一。 本文主要研究在训练集中没有任何反类实例可供学习前提下,如何有效找未 标记集中隐藏的反类实例。目前,基于已知正样本和未标识样本的半监督分类方 法都是针对均衡数据集的,而无法有效处理非平衡数据问题,即训练集和未标识 数据集中的类别数据分布差异很大或者未标识数据集中的反类实例个数特别少。 针对这一特殊问题,本文提出的解决方法也是非常直接和高效的。由于在传统分 类过程中,分类器最终是根据实例所属后验概率的大小来未标识实例分类,因 此,本文提出了基于KL距离的半监督分类算法,利用未标识实例所属后验概率和 训练集中类别先验概率的相对熵来衡量分类结果的正确度,从而抵消了类别不平 衡对分类结果的影响,提高了分类的精确度。同时,针对平衡数据集,本文又提 出了直接基于后验概率的熵值来衡量后验概率的差异程度:当后验概率的熵值越 小时,后验概率的分布就越不均匀,对实例的分类可信度就越高,反之亦然。 本文的主要贡献包括: I.提出了一种新的半监督学习方法。该方法的底层可以使用任何一种具体的分 类技术,依赖任何一种底层分类技术,从而避免了分类器对分类结果的影 响,降低了数据类型和分类器之间的依赖度。 2.采用了更加简单灵活的处理方式:对于非平衡训练集,就采用基于KL距离 的半监督学习算法;而对于平衡训练集,可以直接采用基于熵的半监督学习 算法。 3.提供的实验数据集,不仅有文本数据,还有非文本数据。同时,保证了不同 参数或因素下的性能对比。 4.提供了大量充分的实验来验证所提方法的有用性和高效性。通过文本数据集 4.提供了大量充分的实验来验证所提方法的有用性和高效性。通过文本数据集 和非文本数据集的实验对比,本文所提的方法不仅在查准率和查全率上都优 于同类方法。 关键字:数据挖掘,分类,半监督学习,KL距离,熵 AbstractAs Abstract As the rapid progress of network,biology and on,lots of data is produced. To store and manage data,it costs lots of manpower and financial resources.Hence, how to generate economic benefits from static data has become a problem to solve be addressed.For this,classification and other data mining techniques are proposed. However,in traditional classification methods,only by increasing the artificial known training samples to improve the classification accuracyit is very costly.Therefore,in recent years.how to use unlabeled samples to improve the classification performance gets more and more attention,especially semi—supervised classification based on known and unlabeled samples. This paper mainly focuses on how to find hidden unlabeled negative instances, while there are not any negative samples in the training set.At present,semi- supervised classification methods based on known positive and unlabeled samples are almost about balanced data set,not eff

您可能关注的文档

文档评论(0)

131****9843 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档