支持向量SVM.pptVIP

  1. 1、本文档共28页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
支持向量SVM

支持向量机 主要内容 一. 支持向量机的理论基础——统计学习理论 二. 支持向量机的基本思想 三. 支持向量机存在问题与研究展望 一. 支持向量机的理论基础 ——统计学习理论 SVM的理论基础——统计学习理论 机器学习问题 G:产生器,产生随机向量x; S:训练器,对给定输入x输出相应的y; LM:学习机器,从给定的函数集中选择最能逼近训练器的函数。 机器学习目的 通过有限的观测数据(xi,yi)来估计输入与输出的函数关系,并有一定的预测推广能力 传统的机器学习理论基础——统计学 缺点:统计学研究的是样本数目趋于无穷大时的渐近理论 实际问题:样本有限(小样本) 统计学习理论 对小样本统计估计和预测学习的最佳理论 V.Vapnik 六、七十年代创立,九十年代在此基础上创立支持向量机(SVM) 统计学习理论(SLT) 问题表示 根据n个独立同分布的观测样本 在一组函数集{f(x,w)}中求最优函数f(x,w0)对依赖关系进行估计,使期望风险 最小。 三类机器学习 (1)模式识别问题:y={0,1} (2)回归估计问题(函数逼近):y输出为实数 (3)密度估计问题 由于样本的有限,使用经验风险代替期望风险 经验风险最小化(ERM)准则 经验风险最小是否真的使真实风险最小? 问题 事实上,训练误差小并不总能导致好的预测效果,某 些情况下,训练误差小导致推广能力下降,即真实风险 增加,这就是过学习问题 推广性的界 置信范围 l:样本数 h:VC维 VC维 如果存在h个样本能够被函数集里的函数按所有 的 种形式分开,称函数集能够把h个样本打散。 VC维就是能够打 散的最大样本数 VC维无通用的计算方法。 特别的,N维实空间线性函数VC维是N+1 结构风险最小化(SRM)原则 在函数集中折中考虑经验风险和置信范 围,取得实际风险的最小。 支持向量机(SVM)就是这种思想的具体体现! 二. 支持向量机的基本思想 支持向量机的基本思想 最大间隔 低VC维 高推广能力 核函数 解决低维线性不可分问题 线性可分问题 最优分类超平面 分类超平面: 判决函数: 间隔: 几何间隔: 最大间隔问题: 在间隔固定为1时,寻求最小的 优化问题: 问题求解:(Lagrange乘子法)得出对偶问题: 原问题最优解: 决策函数: 支持向量: 分类超平面仅与离超平面最近的 样本点相关(如H1和H2面上的点) 这些输入向量称为支持向量 线性不可分情况——核函数的引入 低维不可分问题高维未必不可分 一个简单的例子 二维平面中分类曲线为椭圆(线性不可分) 两维向三维的映射: 三维空间中线性可分 分类面: 根据支持向量机求得决策函数为 的内积计算: 令 称为核函数 高维空间中内积计算可以通过计算低维空间的内积得 到,核函数就是连接低维与高维之间的桥梁。 高维空间中支持向量机得出的决策函数可改写成: 因此得出一般的情形: 对于线性不可分的样本,作一个低维到高维的映射,使之在高维的空间中线性可分,在高维空间中采用最大间隔标准得出决策函数,由于巧妙的选取核函数,决策函数中在计算内积时只需换成核函数即可。 优点:由于核函数的特性,只需计算低维空间内积,而无需计算高维空间的内积,因此计算量与样本维数无关,只与样本数有关。 常用核函数: 多项式核: 径向基核: Sigmoid核: Mercer核:所以满足Mercer条件的对称函数,所有核函数要满足Mercer条件! 支持向量机的优势 有坚实的理论基础 基于结构风险最小化,克服了传统方法的过学习和陷入局部最小的问题,具有很强的泛化能力; 采用核函数方法,向高维空间映射时不增加计算的复杂性,又克服了维数灾难 支持向量机存在的问题与研究展望 SVM存在的问题 样本数目增多时,训练速度变慢 SVM解决的是两分类问题,因此需要多分类问题的改进 核函数的选择:没有统一的指导标准 研究展望 针对大规模样本进行算法优化,加快训练速度 多分类问题:一对多、一对一、决策树 支持向量机本身改进,如已有的最小二乘支持向量机等 样本数据集偏斜问题(unbalanced) 利用核思想,将线性算法非线性核化 支持向量机及其改进算法在其他领域的应用 核函数选取问题的思考: (1)多种核加权组合(通过实验方法确定权值),是否可通过反馈机制或迭代方式动态选取权值 (2)按照Mercer条件构造其他核函数,核函数各种运算性质 (3)Mercer条件需要核函数的正定条件太严格,是否可以放

文档评论(0)

fangsheke66 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档