- 1、本文档共23页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
基于支持向量机的分类法
主 讲: 周润景 教授
单 位: 电子信息工程学院
➢ 支持向量机的简介
➢ 支持向量机的基本思想
➢ 支持向量机的几个主要优点
➢ 多类分类问题
➢ MATLAB实现方法
➢ 结论
目 录
➢ 从观测数据中学习归纳出系统运动规律 , 并利用这些规律对未来数 据或无法观测到的数据进行预测一直是智能系统研究的重点 。传统 学习方法中采用的经验风险最小化(ERM) 虽然误差最小化 , 但不 能最小化学习过程的泛化误差 。ERM不成功的例子就是神经网络中 的过学习问题。
➢ 为此由Vapnik领导的ATTBell实验室研究小组在1963年提出的一 种新的非常有潜力的分类技术 , 支持向量机(Support Vector
Machine,SVM )是一种基于统计学习理论的模式识别方法 , 主要
应用于模式识别领域 。支持向量机的基本思想是在样本空间或特征
空间构造出最有超平面 , 使得超平面与不同类样本集之间的距离最 大 , 从而达到最大的泛化能力。
支持向量机的简介
■ SVM是从线性可分情况下的最优
分类面发展而来的 , 基本思想可 用下图的两类线性可分情况说明。 实心点和空心点代表两类样本,
实线P0 、P1为分类线 。两个虚线
分别为过各类中离分类线最近的 样本且平行于分类线的直线 , 它 们之间的距离叫做分类间隔。
支持向量机的基本思想
■此时分类间隔为 , 使间隔最大等价于使 最小 , 则可以通过求
的极小值获得分类间隔最大的最优超平面。
■这里的约束条件为:
y(wx ,+b)-1≥ 0 i= 1…n
■所谓最优分类线就是要求分类线不但能将两类正确分开(训练错误率 为零) , 而且使分类间隔最大。
■ 分类线方程为
支持向量机的基本思想
支持向量机的基本思想
为每个样本的拉氏乘子 , 由L分别对b和 w 导数为0 , 可以
该约束优化问题可以用Lagrange方法求解 , 令
其中
导出:
□
□因此 , 解向量有一个由训练样本集的一个子集样本向量构成的展开式
, 该子集样本的拉氏乘子均不为0 , 即支持向量 。拉氏乘子为0的样本
向量的贡献为0 , 对选择分类超平面是无意义的 。于是 , 就从训练集中
得到了描述最优分类超平面的决策函数即支持向量机 , 它的分类功能 由支持向量决定。
这样决策函数可以表示为:
支持向量机的基本思想
(1) 它是专门针对有限样本情况的 , 其目标是得到现有信息下的最优
解而不仅仅是样本数趋于无穷大时的最优值;
(2) 算法最终将转化成为一个二次型寻优问题 , 从理论上说 , 得到的
将是全局最优点 , 解决了在神经网络方法中无法避免的局部极值问题;
(3) 算法将实际问题通过非线性变换转换到高维的特征空间(Feature
Space) , 在高维空间中构造线性判别函数来实现原空间中的非线性判别 函数 , 特殊性质能保证机器有较好的推广能力 , 同时它巧妙地解决了维 数问题 , 其算法复杂度与样本维数无关。
支持向量机的优点
基本的支持向量机仅能解决两类分类问题 , 一些学者从两个方向研究
用支持向量机解决实际的多类分类问题: 一个方向就是将基本的两类 支持向量机(Binary-class SVM ,BSVM)扩展为多类分类支持向量
(Multi-Class SVM ,MSVM) , 使支持向量机本身成为解决多类分类问
题的多类分类器 ;另一方向则相反,将多类分类问题逐步转化为两类分类
问题, 即用多个两类分类支持向量机组成的多类分类器。
多类分类问题
多类分类支持向量机MSVM:
实际应用研究中多类分类问题更加常见 , 只要将目标函数由两类改为
多类(k类)情况 , 就可以很自然地将BSVM扩展为多类分类支持向量机
MSVM , 以相似的方式可得到决策函数。
多类分类问题
基于BSVM的多类分类器
(1)1-a-r分类器(One-against-rest class ifiers)
这种方案是为每个类构建一个BSVM , 如图 , 对每个类的BSVM , 其
训练样本集的构成是: 属该类的样本为正样本 , 而不属于该类的其 他所有样本为都是负样本 , 即该BSVM分类器就是将该类样本和其
他样本分开 。所以在1-a-r分类器过程中训练样本需要重新标注 , 因 为一个样本只有在对应类别的BSVM分类器是是正样本 , 对其他的
BSVM分类器都是负样本。
多类分类问题
(2) 1-a- 1分类器(One-against-one class ifiers)
对1-a- 1分类器 , 解决k类分类问题就需要个BSVM , 因为这种方案是
每两个类别训
您可能关注的文档
最近下载
- 2025年高等教育自学考试自考《计算机应用基础》知识点试题集精析.docx VIP
- 四年级下册科学实验报告(已填好)2021新苏教版.docx
- 组织开展全市反校园欺凌和暴力专项整治行动实施方案.doc VIP
- 生物信息学课程教案.pdf
- 【13页】最新药品生产技术专业职业生涯规划书4600字数.pdf VIP
- 党员2025年转正申请书参考8篇.doc VIP
- 2024年辽宁医药职业学院高职单招(英语/数学/语文)笔试历年(2016-2023年)真题荟萃带答案解析.docx
- 新目标大学英语(第二版)视听说教程 第4册 参考答案.pdf
- 城镇燃气输配工程施工及验收标准 GB_T51455-2023.docx VIP
- 中外历史纲要下 第三单元走向整体的世界教案.docx
文档评论(0)