- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
本科生毕业设计(论文)外文翻译
姓 名: ####
学 号: 220######
学 院: 软件学院
专 业: 软件工程
年 级: 20##
指导教师: (签名)
20## 年 03 月 ## 日
文本分类方法的重新检查 (外文翻译)
摘要:本文描述了对五种文本分类方法进行的受控制的统计显著性测试研究,这五种分类方法是:支持向量机(SVM), k-近邻(KNN), 神经网络(NNet), 线性最小平方拟合(LLSF)映射和朴素贝叶斯(NB)。我们重点关注这些方法在非均匀类分布上的健壮性,并给出其性能和训练集合类别分布频度之间的函数。结果显示当训练集中平均每个类中的正训练样例数量较少时(少于10),SVM、KNN和LLSF的性能比NNet、NB显然要好,而当训练类别中样例足够多时(超过300个正例样本),所有的分类方法性能相当。
1 引言
自动文本分类(TC)是一个有监督的学习任务,它的定义为:基于一些已经分配好类别标签的训练文档集合,对新文档分配类别标签。自动文本分类已经对统计学习方法提出了公开的挑战,必须要有一些实验方法来考查它们在现实世界问题中的有效性,而这些实际问题常常高维,并且在已经标记的训练文档集合中类别分布不平均。例如,新闻中的主题发现就是在文本分类文献中最经常考查的应用领域之一。越来越多的学习方法被用于文本分类,包括回归模型、最近邻分类、贝叶斯概率方法、决策树、规则归纳学习、神经网络方法、在线学习方法以及支持向量机方法。
虽然每种方法都包含价值丰富的信息,但由于已经公布的结果之间很难直接比较,所以不同方法之间的比较很难有清楚的结论。比如,你无法作出判断,Wiener等人使用的神经网络方法(NNet)比Joachims使用的SVM方法性能好还是坏。因为在评论这些方法时他们使用了不同的数据集,并且没有进行不同数据如何影响不同分类器性能的统计分析。朴素贝叶斯方法在之前的研究中性能表现相对比较差,但是另一方面,最近的一些论文却说NB方法表现出奇的好并且最近变得越来越流行。这些说法很难让人理解,因为它们要么使用不可比较的性能指标,要么只是在Benchmark语料库上的一些精选子集中进行测试(例如:只使用共90个类中最普通的10个类)。甚至什么才是精确的还弄不清楚,出奇的好是否能够理解成这个方法在统计意义上显著地比其它方法好?或者说和最好的哪些方法相比在统计上并没有什么不同?或者说比那些最好的方法差一些但是比作者预料的要好?如果上述说法是我们理解的某种特定意义的话,那么到现在为止发现了什么实验证据?这些问题从来没有解决得很好。
TC研究中另外一个公开的问题是当类别分布不均匀时,分类方法的健壮性如何?由于在实际中,类别分布通常是极端不一致的,因此对于类别分布频度来比较不同分类器的性能是很有意义的,同时衡量不同数据量对不同方法效果的影响。很多报告都给出了特定类的性能指标,但是将性能看成类稀疏率(rareness)的函数的分析还没有见到。在文本分类中,常常用单一指标来比较不同方法,如精确率、错误率或者F1值来比较。这个单一指标可能会受大类或者小类的影响,这取决于求平均的方法(如微平均和宏平均)。然而,不管平均方式是如何计算得到的,使用单一的指标难以对训练集类分布频度进行更细致的分析。
本文对上述问题进行了受限研究,使用了五种常用的分类方法:NNet、SVM、NB、KNN和LLSF。它们在以前发表的结果中都是相对比较好的方法,而且某些方法之间有一些对比实验,但是这些方法没有放在一起进行直接的统计分析和对比。而这正是本文的重点。具体来说,本文包含下列新的贡献:
在一个新的基准语料Reuters-21578对上述5种方法的直接对比实验。目前在该语料上,还没有使用语料中所有类进行的LLSF、NNet以及NB分类器的实验。对于KNN来说,虽然有已经公布的结果,但是性能却很神奇地比该语料以前一个版本上的结果低。对SVM,发表的结果中没有包含统计显著性分析的充分细节。
提出多种对于不同标准性能指标(包括F1)的一系列统计显著性测试方法,并提出一种联合使用这些测试进行不同方法之间比较的方式;
观查各个分类器的性能,这些分类器是作为训练集中类分布频度的函数,并分析分类方法在处理不均匀类分布情况下的健壮性。
3.2 KNN
KNN代表是k-nearest neighbor(K
文档评论(0)