SVM分类器中的最优化问题.doc

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
. . SVM分类器中的最优化问题 电子工程学院 周娇 201622021121 摘要 支持向量机(Support Vector Machines,SVM)是一种分类方法,它通过学会一个分类函数或者分类模型,该模型能把数据库中的数据项映射到给定类别中的某一个,从而可以用于预测未知类别数据的类别。所谓支持向量机,顾名思义,分为两个部分了解:一,什么是支持向量(简单来说,就是支持或支撑平面上把两类类别划分开来的超平面的向量点);二,这里的“机(machine,机器)”便是一个算法。支持向量机是基于统计学习理论的一种机器学习方法,通过寻求结构化风险最小来提高学习机泛化能力,实现经验风险和置信范围的最小化,从而达到在统计样本量较少的情况下,亦能获得良好统计规律的目的。在本文中,主要介绍了如何通过求解最优化问题来得到SVM分类器的最佳参数,使得SVM分类器的性能最好。 线性分类 如图(1),在二维平面上有两种不同的数据点,分别用红色和蓝色来表示,红颜色的线就把这两种不同颜色的数据点分开来了。这些数据点在多维空间中就是向量,红颜色的线就是一个超平面。 图(1) 图(2) 假设 是 维空间中的一个数据点,其中是这个数据点的个特征,令 , 1, z≥0-1, z0 (1.1) 在图(1)中,处在红线左边的数据点,其y值为-1,反之,处在红线右边的数据点其y值为1。这样,根据y的值就把这个数据点分类了。那么分类的重点就在如何构造这个函数。 设图(1)中的超平面(即红线)其表达式为 ,则 = (1.2) 直观上表示数据点到超平面的几何间隔,去掉分子的绝对值就有了正负性,是法向量,是截距。表示了数据点到超平面的函数间隔,如图(2)所示。由于是这个数据点的个特征,就是对特征进行线性组合,即给每一个特征加上一个权重。 因为 1, z≥0-1, z0 ,=,=1或-1分别表示两个类别,而的正负决定它该分到哪个类别,所以我们以和 符号是否一致来判断分类是否正确。 令 γi=yi() 则γ0表示分类正确,否则分类错误。 那么我们需要求解出和这两个参数。 最大间隔分类器 对一个数据点进行分析,当它到超平面的几何间隔越大的时候,分类正确的把握率越大。对于一个包含n 个点的数据集x(x1,x 令 γ=minγi ,i=1,2,……,n ( 所以最大间隔分类器的目标函数为 max γ (2.2) 条件为 γi=yi≥γ ,i=1,2,……,n (2.3)即 其中γ=γ,即γ=γ ,由于ω和的值可以缩放,令 max 1 (2.5) s.t. yi≥1 ,i=1,2,……,n 通过求解这个最优化问题,我们可以得到一个最大间隔分类器,如图(2)所示,中间的红线为最优超平面,另外两条虚线到红线的距离都等于1,即γ= 从原始问题到对偶问题及求解。 原规划即: max 1 (3.1) s.t. yi≥1 ,i 由于求1的最大值相当于求122 min 122 (3.3 s.t.yi-1≥0 ,i=1,2,……,n 容易证明这是个凸优化问题。 构造Lagrange函数将其变为无约束的最优化问题,给每一个约束条件加上一个Lagrange乘子α=(α1,α (3.5) 令 maxαi≥0 容易验证,当某个约束条件不满足时,例如,那么显然有+∞(此时αi= +∞)。而当所有约束条件都满足时,则有(此时αi=0),亦即我们最初要最小化的量。因此,在要求约束条件得到满足的情况下最小化,实际上等价于直接最小化(因为如果约束条件没有得到满足,会等于无穷大,自然不会是我们所要

文档评论(0)

ygxt89 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档