- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
提高支持向量机学习效率和分类速度的研究和应用
提高支持向量机的学习效率和分类速度的研究和应用
摘要
J
女●●一。
q
基于统计学习理论和结构风险最小化原理的支持向量机
Vector
(Support
新方法,较好的解决了困扰很多学习方法的小样本、非线性、过学习、
维数灾难、局部极小等问题,具有很好的泛化能力。由于这些良好的
性能,支持向量机和统计学习理论开始受到越来越广泛的重视并得到
了广泛的应用。但是当训练样本的数目很大时,支持向量机的训练需
要的时间和计算机内存急剧增加,这阻碍了支持向量机在解决大样本
问题上的应用。因此为支持向量机解决大样本问题设计快速高效的训
练算法得到了研究人员的极大重视。另外对于大样本问题,支持向量
机往往具有数目众多的支持向量,由于非线性支持向量机的决策函数
的复杂度由支持向量的个数来决定,大量的支持向量导致了高度复杂
的决策函数和较低的分类效率。因此提高解决大样本问题的支持向量
机分类速度也是十分有意义的研究。
本文从支持向量机的理论、方法和应用相结合的角度出发。在提
高支持向量机训练效率,简化支持向量机的决策函数以提高分类速度
以及应用支持向量机改进其他学习方法的性能方面进行了系统的研
究。本文的主要工作和贡献包括以下内容:
1.根据支持向量的特殊性质,提出了候选支持向量的概念,并
设计了从训练集合中选择候选支持向量的方法,在此基础上提出了利
用候选支持向量代替整个训练集合学习支持向量机的方法。实验证明
本方法能够快速学习支持向量机,而且测试精度和利用全部训练集合
得到的支持向量机相当。在本文的方法中,候选支持向量选择算法直
SVM,
接影响到训练得到的SVM的性能,约简的支持向量机(Reduced
^
简称RSVM)能够快速得到决策函数,而且精度也是令人满意的,因
—一?
此它提供了一种有效的候选支持向量选择算法。本文进而提出利用 y
RSVM选择候选支持向量,再利用候选支持向量训练标准支持向量机。
实验证明这种方法是十分有效的。
2.对于非线性支持向量机,支持向量的个数和决策函数的复杂
度直接关联。为了简化支持向量机的决策函数,提高分类速度,必须
减少支持向量的个数。 本文提出了利用迭代学习和构造替代向量集
合两种方法来简化支持向量机的决策函数,从而提高解决大样本问题
的支持向量机的分类速度。实验证明这两种方法都能够获得支持向量
数目减少的支持向量机,而且简化的SVM的精度和原始SVM相当。
3.对于最小二乘支持向量机,由于优化目标函数要使训练误差平
方最小化,导致了稀疏性的丢失,使得所有偏离决策边界的训练样本
都将成为支持向量。所以在解决大样本问题时,会导致决策函数非常
复杂和较慢的分类速度,因此研究获得稀疏最小二乘支持向量机的方
法是很有意义的研究。本文分析了现有获得稀疏最小二乘支持向量机
方法的不足,提出了一种改进的稀疏最小二乘支持向量分类器。实验
证明本方法比现有的方法具有更高的精度,。而且决策函数更简单。
4.在解决大样本问题方面,经典近邻规则需要有效的典型样本选
择算法来支撑。本文从支持向量机的训练得到启发,应用本文的SVM
快速学习算法和分类算法,提出了两种近邻规则选择典型样本的方
法,提
文档评论(0)