《机器学习》课件 第6章 支持向量机.pdf

《机器学习》课件 第6章 支持向量机.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

统计学习理论

经验风险最小化

期望风险

对于一个已训练的机器,测试错误的期望风险:

由于P(x,y)为未知,因此法直接计算。对于给定的训练集,则可以计算经验

风险。

经验风险最小化

经验风险

对于给定的训练集,经验风险为

对于一个给定的训练集,是确定的。通常将上式中的称为损失函数。

VC维

对学习系统来说,训练集误差与测试集误差之间的差别是训练集规模的函数,该

函数可以由学习系统的VC维表征。

结构风险最小化

结构风险

实现结构风险最小化归纳法可以有两种思路:

一是在每个子集中求最小经验风险,选择使最小经验风险和置信

范围之和最小的子集。

这种方法比较费时,当子集数目很大甚至无穷时不可行。

二是设计函数集的某种结构使得在每个子集中都能取得最小的经

验风险(例如,使训练误差为0),然后只需选择适当的子集使置

结构风险最小化

信范围最小,则这个子集中使经验风险最小的函数就是最优函数。

TheEnd

支持向量机基本原理

支持向量机(supportvectormachine,SVM)

基本原理基于统计学习理论的方法二分类

H为线性超平面,H1、H2分别为过各类中离超平面最近的样本且平行于超平面

分类间隔(margin):|H1H2|。

最优超平面:将两类数据正确分开,并且使分类间隔最大。

定义最优超平面,并把寻找最优超平面归结为求解一个凸规划问题

Ø支持向量机能较好地解决小样本、非线性和高维数据、局部极小点等实际问题。

支持向量机(supportvectormachine,SVM)

基本原理

能将两类样本正确分开的超平面有无数多个。如何求得最优超平面?

支持向量机(supportvectormachine,SVM)

超平面

线性超平面非线性超平面

线性可分情况线性不可分情况线性不可分情况

支持向量机

数据线性可分

•线性最优超平面线性支持向量机

数据线性不可分

•非线性最优超平面非线性支持向量机

核方法

升维

基于Mercer核展开定理,通过用内积函数定义的非线性变换将输入空间

线性化

映射到高维特征空间(Hilbert空间),在这个高维特征空间中寻找输入

变量和输出变量之间的关系。

TheEnd

线性支持向量机分类器

线性支持向量机分类器

线性可分情况

,∈,∈−⋯,

•设线性可分的训练样本

文档评论(0)

balala11 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档