(完整)支持向量机(SVM)原理及应用概述分析.pdf

(完整)支持向量机(SVM)原理及应用概述分析.pdf

  1. 1、本文档共12页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

支持向量机(SVM)原理及应用

一、SVM的产生与发展

自1995年Vapnik(瓦普尼克)在统计学习理论的基础上提出SVM作为模式识别的新方法之

后,SVM一直倍受关注。同年,Vapnik和Cortes提出软间隔(softmargin)SVM,通过引进松弛

变量度量数据x的误分类(分类出现错误时大于0),同时在目标函数中增加一个分量用来

iii

惩罚非零松弛变量(即代价函数),SVM的寻优过程即是大的分隔间距和小的误差补偿之间的平

衡过程;1996年,Vapnik等人又提出支持向量回归(SupportVectorRegression,SVR)的方

法用于解决拟合问题。SVR同SVM的出发点都是寻找最优超平面(注:一维空间为点;二维空间

为线;三维空间为面;高维空间为超平面。),但SVR的目的不是找到两种数据的分割平面,

而是找到能准确预测数据分布的平面,两者最终都转换为最优化问题的求解;1998年,Weston

等人根据SVM原理提出了用于解决多类分类的SVM方法(Multi-ClassSupportVector

Machines,Multi-SVM),通过将多类分类转化成二类分类,将SVM应用于多分类问题的判断:

此外,在SVM算法的基本框架下,研究者针对不同的方面提出了很多相关的改进算法。例如,

Suykens提出的最小二乘支持向量机(LeastSquareSupportVectorMachine,LS—SVM)算

法,Joachims等人提出的SVM-1ight,张学工提出的中心支持向量机(CentralSupportVector

Machine,CSVM),Scholkoph和Smola基于二次规划提出的v-SVM等。此后,台湾大学林智仁(Lin

Chih-Jen)教授等对SVM的典型应用进行总结,并设计开发出较为完善的SVM工具包,也就是

LIBSVM(ALibraryforSupportVectorMachines)。LIBSVM是一个通用的SVM软件包,可以

解决分类、回归以及分布估计等问题。

二、支持向量机原理

SVM方法是20世纪90年代初Vapnik等人根据统计学习理论提出的一种新的机器学习方法,

它以结构风险最小化原则为理论基础,通过适当地选择函数子集及该子集中的判别函数,使

学习机器的实际风险达到最小,保证了通过有限训练样本得到的小误差分类器,对独立测试

集的测试误差仍然较小。

支持向量机的基本思想:首先,在线性可分情况下,在原空间寻找两类样本的最优分类

超平面。在线性不可分的情况下,加入了松弛变量进行分析,通过使用非线性映射将低维输

入空间的样本映射到高维属性空间使其变为线性情况,从而使得在高维属性空间采用线性算

法对样本的非线性进行分析成为可能,并在该特征空间中寻找最优分类超平面。其次,它通

过使用结构风险最小化原理在属性空间构建最优分类超平面,使得分类器得到全局最优,并

在整个样本空间的期望风险以某个概率满足一定上界。

其突出的优点表现在:(1)基于统计学习理论中结构风险最小化原则(注:所谓的结构风险

最小化就是在保证分类精度(经验风险)的同时,降低学习机器的VC维,可以使学习机器在整个样本集

上的期望风险得到控制。)和VC维理论(注:VC维(Vapnik-ChervonenkisDimension)的概念是为了研究

学习过程一致收敛的速度和推广性,由统计学理论定义的有关函数集学习性能的一个重要指标。),具有

良好的泛化能力,即由有限的训练样本得到的小的误差能够保证使独立的测试集仍保持小的

误差。(2)支持向量机的求解问题对应的是一个凸优化问题,因此局部最优解一定是全局最优

解。(3)核函数的成功应用,将非线性问题转化为线性问题求解。(4)分类间隔的最大化,使

得支持向量机算法具有较好的鲁棒性。由于SVM自身的突出优势,因此被越来越多的研究人员

作为强有力的学习工具,以解决模式识别、回归估计等领域的难题。

1.最优分类面和广义最优分类面

SVM是从线性可分情况下的最优分类面发展而来的,基本思想可用图1来说明。对于一维

空间中的点,二维空间中的直线,三维空间中的平面,以及高维空间中的超平面,图中实心

点和空心点代表两类样本,H为它们之间的分类超平面,H,H分别为过各类中离分类面最近

文档评论(0)

. + 关注
官方认证
内容提供者

专注于职业教育考试,学历提升。

版权声明书
用户编号:8032132030000054
认证主体社旗县清显文具店
IP属地河南
统一社会信用代码/组织机构代码
92411327MA45REK87Q

1亿VIP精品文档

相关文档