人工智能大作业教程解读.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
研究报告 题 目 支持向量机学习报告 学学VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力。支持向量机SVM(Support Vector Machine)是ATTBell实验室的V.Vapnik提出的针对分类和回归问题的统计学习理论。由于SVM方法具有许多优点和有前途的实验性能,该技术已成为机器学习研究领域中的热点,并取得很理想的效果,如人脸识别、手写体数字识别和网页分类等。 1原理及方法 SVM根据问题的复杂性可以分为线性可分SVM和非线性可分SVM,其基本原理如下:在进行文本分类的时候,每一个样本由一个向量(就是那些文本特征所组成的向量)和一个标记(标示出这个样本属于哪个类别)组成。如下: D=(xi,yi) xi就是文本向量(维数很高),yi就是分类标记。 在二元的线性分类中,这个表示分类的标记只有两个值,1和-1(用来表示属于还是不属于这个类)。有了这种表示法,可以定义一个样本点到某个超平面的间隔: yi(wxi+b)如果某个样本属于该类别的话,那么wxi+b0(因为我们所选的g(x)=wx+b就通过大于0还是小于0来判断分类),而yi也大于0;若不属于该类别的话,那么wxi+b0,而yi也小于0,这意味着yi(wxi+b)总是大于0的,而且它的值就等于|wxi+b|(也就是|g(xi)|) 现在把w和b进行一下归一化,用w/||w||和b/||w||分别代替原来的w和b,间隔就可以写成 当用归一化的w和b代替原值之后的间隔叫做几何间隔,几何间隔所表示的正是点到超平面的欧氏距离,简称几何间隔为“距离”。同样一个点的集合(就是一组样本)到某个超平面的距离为此集合中离超平面最近的点的距离。下面这张图展示出了几何间隔的现实含义: H是分类面,而H1和H2是平行于H,且过离H最近的两类样本的直线,H1与H,H2与H之间的距离就是几何间隔。 间隔:δ=y(wx+b)=|g(x)| 几何间隔: ?可以看出δ=||w||。几何间隔与||w||是成反比的,因此最大化几何间隔与最小化||w||完全是一回事。而我们常用的方法并不是固定||w||的大小而寻求最大几何间隔,而是固定间隔(例如固定为1),寻找最小的||w||。 而凡是求一个函数的最小值(或最大值)的问题都可以称为寻优问题(也叫作一个规划问题),又由于找最大值的问题总可以通过加一个负号变为找最小值的问题,因此我们下面讨论的时候都针对找最小值的过程来进行。一个寻优问题最重要的部分是目标函数,顾名思义,就是指寻优的目标。例如我们想寻找最小的||w||这件事,就可以用下面的式子表示: 但实际上对于这个目标,常常使用另一个完全等价的目标函数来代替,那就是: 当到最小时,||w||也达到最小,反之亦然(前提当然是||w||描述的是向量的长度,因而是非负的)。 ???? ???将约束条件改写为: ???? ??? 从KKT条件得知只有函数间隔是1(离超平面最近的点)的线性约束式前面的系数,也就是说这些约束式,对于其他的不在线上的点(),极值不会在他们所在的范围内取得,因此前面的系数. ????实线是最大间隔超平面,假设×号的是正例,圆圈的是负例。在虚线上的点就是函数间隔是1的点,那么他们前面的系数,其他点都是。这三个点称作支持向量。构造拉格朗日函数如下: ??? ???? ????? 按照对偶问题的求解步骤来进行, ???? ??? 首先求解的最小值,对于固定的,的最小值只与w和b有关。对w和b分别求偏导数。 ???? ???? ??? 并得到 ???? ??? 将上式带回到拉格朗日函数中得到,此时得到的是该函数的最小值(目标函数是凸函数) ??? 代入后,化简过程如下: ?????   最后得到 ???? 由于最后一项是0,因此简化为 ???? ???将向量内积表示为 ??? 此时的拉格朗日函数只包含了变量。然而我们求出了才能得到w和b。 ??? 接着是极大化, 首先由于目标函数和线性约束都是凸函数,而且这里不存在等式约束h。存在w使得对于所有的i,。因此,一定存在使得是原问题的解,是对偶问题的解。 ??如果求出了,根据即可求出w(也是,原问题的解)。然后 ???? ???即可求出b。即离超平面最近的正的函数间隔要等于离超平面最近的负的函数间隔。 ?由于前面求解中得到 ???? ???考虑,根据求解得到的,代入前式得到 ???? ??? 也就是说,以前新来的要分类的样本首先根据w和b做一次线性运算,然后看求的结果是大于0还是小于0,来判断正例还是

文档评论(0)

阿里山的姑娘 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档