机器学习穷则变通支持向量.pdfVIP

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

12机器学习|穷则变,变则通:支持向量机

2018-01-04

12机器学习|穷则变,变则通:支持向量机

朗读人:12′17′′563M

1963年,莫斯科控制科学学院攻读统计学博士的弗拉基米尔·瓦普尼克和他的同事阿

列克谢·切尔基斯共同提出了支持向量机算法,随后几年两人又在此基础上进步完善了统计学

习理论。可受当时国际环境的影响,这些以俄文的成果并没有得到西方学术界的重视。直到

1990年,瓦普尼克随着到达,统计学习理论才得到了它应有的重视,并在二十世纪末大

放异彩。瓦普尼克也于2014年加入的人工智能,并获得了包括拉特

奖和冯诺伊曼奖章等诸多个人荣誉。

具体说来,支持向量机是种二分类算法,通过在空间中构造超平面实现对样本的分类。最简

单的情形是训练数据线性可分的情况,此时的支持向量机就被弱化为线性可分支持向量机,这可以

视为广义支持向量机的种特例。

线性可分的数据集可以简化为二维平面上的点集。在平面直角坐标系中,如果有若干个点全部位于

xx轴上方,另外若干个点全部位于xx轴下方,这两个点集就共同构成了个线性可分的训练数据

集,而xx轴就是将它们区分开来的维超平面,也就是直线。

如果在上面的例子上做进步的假设,假定xx轴上方的点全部位于直线y=1y=1上及其上方,xx

轴下方的点全部位于直线y=−2y=−2上及其下方。如此来,任何平行于xx轴在(-2,1)之间

的直线都可以将这个训练集分开。那么问题来了:在这么多划分超平面中,哪个是最好的呢?

直来,最好的分界线应该是直线

y=−0.5y=−0.5,因为这条分界线正好位于两个边界的中

间,与两个类别的间隔可以同时达到最大。当训练集中的数据因噪声干扰而移动时,这个最优划分

超平面的划分精确度所受的影响最小,因而具有最强的泛化能力。

在的特征空间上,划分超平面可以用简单的线性方程描述

T

wx+b=0

T

wx+b=0

式中的nn维向量w为法向量,决定了超平面的方向;bb为截距,决定了超平面和空间中原点

的距离。划分超平面将特征空间分为两个部分。位于法向量所指向侧的数据被划分为正类,其分

类标记

y=+1y=+1;位于另侧的数据被划分为负类,其类标记y=−1y=−1。线性可分支

持向量机就是在给定训练数据集的条件下,根据间隔最大化学习最优的划分超平面的过程。

给定超平面后,特征空间中的样本点xx到超平面的距离可以表示为

ii

wTx+b

w

r=

T

文档评论(0)

C824704656 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档