- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
支持向量机.
支持向量机支持向量机,英文名为support vector machine,一般简称SVM,通俗来讲,它是一种二类分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划(convex quadratic programming)问题的求解,支持向量机的学习算法是求解凸二次规划的最优化算法。其方法包含构建由简到繁的模型:线性可分支持向量机、线性支持向量机和非线性支持向量机。线性可分支持向量机假定一特征空间上的训练数据集,其中,,为第i个特征向量,也就是实例,为的类标记,当时,称为正例;当时,称为负例,称为样本点。再假设训练数据集是线性可分的,即存在某个超平面能够将正例和负例完全正确的分开,不妨设分离超平面方程为,法向量为w、截距为b。一般地,当训练数据集线性可分时,存在无穷多个分离超平面可将两类数据正确分开,线性可分支持向量机利用间隔最大化求最优分离超平面,这是解是唯一的。若最优分离超平面为,则分类决策函数为。在上图中,有A、B、C三个点,表示三个实例,设“。”表示正类,“”表示负类,则这三个点全在正类。A距分类超平面较远,若预测该点为正类就比较确信预测是正确的;C距分类超平面较近,若预测该点为负类就不那么确信;B介于AC两者之间,预测为正类的确信度也在A与C之间。故一般来说,点距离分离超平面的远近可以表示分类预测的确信程度。在超平面确定的情况下,能够相对地表示点x到超平面的远近,而的符号与类标记y的符号是否一致可表示分类是否正确,所以可以来表示分类的真确性及确信度,我们称之为函数间隔。也就是,样本点的函数间隔为,训练样本集T的函数间隔为超平面关于T中所有样本点的函数间隔最小值,即,函数间隔可以表示分类预测的正确性及确信度,但是我们成比例地改变w和b时,超平面并没有变而函数间隔却扩大2倍,为此可以对分离超平面的法向量w加些约束,如规范化,,使得间隔是确定的,这时函数间隔成为几何间隔,此时,超平面关于T中所有样本点的函数间隔最小值,即,这样如果成比例地改变w和b时,几何间隔不变化。支持向量机学习的基本思想是求解能够正确划分训练数据集并且几何间隔最大的分离超平面。对线性可分的训练数据集而言,线性可分的超平面有无穷多,但是几何间隔最大的只有一个。几何间隔最大意味着以充分大的的确信度对训练数据集进行分类,也就是说,不仅将正负实例分开,而且对最难分的实例点(离超平面最近的点)也有足够大的确信度把它们分开,这样的超平面应该对未知的新实例有很好的分类预测能力。最大间隔分类超平面这个问题可以表示为下面的的约束最优化问题:s.t ,即我们希望最大化超平面关于训练数据集的几何间隔,约束条件表示超平面每个训练样本点的几何间隔至少是,考虑几何间隔和函数间隔的关系,可将这个问题改写为s.t 函数间隔的取值并不影响最优化问题的解,事实上,假设将w和b按比例改变,函数间隔也改变同样的倍数,这一改变对这最优化问题的不等式约束没有影响,对目标函数的优化也没有影响,也就是说,它产生的是一组等价问题,为此我们可以取,将其代入,且注意到最大化和最小化是等价的,于是得到下面的线性可分支持向量机学习的最优化问题这是个凸二次规划问题。在线性可分情况下,训练数据集的样本点中与分离超平面距离最近的样本点的实例称为支持向量。支持向量就是使下列约束条件等号成立的点,即对的正例点,支持向量在超平面上,对的负例点,支持向量在超平面上,下图在和上的点就是支持向量。由图可知,再决定分离超平面时只有支持向量起作用,而其他实例点并不起作用,如果移动支持向量将改变所求的解;但是如果在间隔边界以外移动其他的点,甚至去掉这下点,则解是不变的,由于支持向量在确定分离超平面中起决定作用,所以这种分类模型取名为支持向量机。支持向量的个数一般很少,所以支持向量机由很少的“重要的”训练样本确定。学习的对偶算法首先构建拉格朗日函数,为此,引进拉格朗日乘子(Lagrange multiplier),定义拉格朗日函数:根据拉格朗日对偶性,原始问题的对偶问题是极大极小问题:所以,为了得到对偶问题的解,需要先求对w、b的极小,再求对的极大。求将拉格朗日函数分别对w、b求偏导并令其为零,可得将其结果代入拉格朗日函数,化简可得即=求对的极大,即是对偶问题根据KKT条件可得,设是上述问题的解,则存在下标j,使得,并可按下式求得原始最优化问题的解:分类决策函数可以写成这就是说,分类决策函数只依赖于输入x和训练样本输入的内积。此外,和只依赖于训练数据中对应于的样本,而其他的样本点对和没有影响,于是我们将训练数据中对应于的实例点称为支持向量。线性支持向量机线性可分支持向量机对线性不可分训练数据是不适用的,因为此时不等式约束并不成立,为了解决此问题,线性支持向量机产生了。线性
您可能关注的文档
- 操作系统试题库(经典版)..doc
- 操作系统课内实验报告..docx
- 操作系统的多级存储体系..docx
- MOTO WING5自动配置向导.doc
- 操作系统课程设计-进程调度模拟..docx
- 操作系统课程设计..docx
- 操作系统课程设计实验报告..doc
- 操作系统课程设计题目..doc
- 操作系统课程设计题目及代码..doc
- 操作系统课设..doc
- 初中语文经典古文教学的有效性分析教学研究开题报告教学研究课题报告.docx
- 初中语文筛选与分析课文的方法探讨教学研究课题报告.docx
- 高中生物课程改革的挑战与对策教学研究课题报告.docx
- 高中生创造性思维训练的途径教学研究课题报告.docx
- 高中生科学实验报告写作的指导方法教学研究课题报告.docx
- 高中物理教学中概念图的应用实证研究教学研究课题报告.docx
- 教师情绪管理对教学效果的影响研究教学研究课题报告.docx
- 教师在课堂观察中的有效反馈机制研究教学研究课题报告.docx
- 初中生学习方式的变迁与教育应对教学研究课题报告.docx
- 初中生自我管理能力培养的研究教学研究课题报告.docx
文档评论(0)