- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[经济学]cqj-支持向量机
Support Vector Machine支持向量机 提纲 1.SVM的有关概念介绍 2.SVM问题的数学表示和推导 简单的最优分类面SVM 广义最优分类面 SVM 非线性最优分类面SVM 3.支持向量机工具箱 SVM的描述 支持向量机是在统计学习理论的基础上发展出来的一种新的机器学习方法,它是统计学习理论中最年轻的部分,也是最实用的部分。Vapnik等人在20世纪60年代开始研究有限样本下的机器学习问题,随着理论研究的逐步成熟,在90年代中期,他们提出了一个较完善的基于有限样本的理论体系,即统计学习理论(Statistical Learning Theory,SLT),与传统统计学理论相比,统计学习理论是一门专门研究小样本情况下,机器学习规律的理论,其核心问题是寻找一种归纳原则以实现最小化风险泛函,使其具有最佳的推广能力。 模式识别问题的一般描述 已知:n个观测样本train set,(x1,y1), (x2,y2)…… (xn,yn), 学习到一个假设H=f(x, w) 作为预测函数,其中w是广义参数. 满足条件:期望风险最小 损失函数 期望风险R(w)要依赖联合概率F(x,y)的信息,实际问题中无法计算。 一般用经验风险Remp(w)代替期望风险R(w) 一般模式识别方法的问题 经验风险最小不等于期望风险最小,不能保证分类器的推广能力; 经验风险只有在样本数无穷大趋近于期望风险,需要非常多的样本才能保证分类器的性能; 需要找到经验风险最小和推广能力最大的平衡点。 SVM的理论基础 根据统计学习理论,学习机器的实际风险由经验风险值和置信范围值两部分组成。而基于经验风险最小化准则的学习方法只强调了训练样本的经验风险最小误差,没有最小化置信范围值,因此其推广能力较差。 Vapnik 与1995年提出的支持向量机(Support Vector Machine, SVM)以训练误差作为优化问题的约束条件,以置信范围值最小化作为优化目标,即SVM是一种基于结构风险最小化准则的学习方法,其推广能力明显优于一些传统的学习方法。 线性判别函数和判别面 一个线性判别函数(discriminant function)是指由x的各个分量的线性组合而成的函数 两类情况:对于两类问题的决策规则为 如果g(x)=0,则判定x属于C1 如果g(x)0, 则判定x属于C2 方程g(x)=0定义了一个判定面,它把归类于C1的点与归类于C2的点分开来。 当g(x)是线性函数时,这个平面被称为“超平面”(hyperplane)。 当x1和x2都在判定面上时, 这表明w和超平面上任意向量正交, 并称w为超平面的法向量。 在一维空间中,没有任何一个线性函数能解决下述划分问题(黑红各代表一类数据),可见线性判别函数有一定的局限性。 分类器的选择 最优分类面 SVM 是从线性可分情况下的最优分类面发展而来的, 基本思想可用下图的两维情况说明. 求最优分类面(最大间隔法) 分类面方程满足条件 对(xi,yi) 分类面方程g(x)=wx+b应满足 即 求解 首先建立Lagrange函数 广义最优分类面 分类面条件放宽增加一个松弛项 经验风险最小 空白最大(不变) 数学表示 已知:n个观测样本,(x1,y1), (x2,y2)…… (xn,yn) 求解: 目标:最优分类面 wx+b=0 问题求解 将上述问题表示成拉格朗日乘子式 Kuhn-Tucker条件 得到 只要确定?,便可解出w,b 将上述条件代入L中 新的优化问题 已知:n个观测样本,(x1,y1), (x2,y2)…… (xn,yn) 求解 根据?,求得w,b ,得到最优分类面 非线性分类面 非线性可分的数据样本在高维空间有可能转化为线性可分。 在训练问题中,涉及到训练样本的数据计算只有两个样本向量点乘的形式 使用函数 ,将所有样本点映射到高为空间,则新的样本集为 设函数 SVM的一般表示 已知:n个观测样本,(x1,y1), (x2,y2)…… (xn,yn) 求解 最优非线性分类面为 支持向量机 上节所得到的最优分类函数为: 该式只包含待分类样本与训练样本中的支持向量的内积 运算,可见,要解决一个特征空间中的最优线性分类问题,我们只需要知道这个空间中的内积运算即可。 ?对非线性问题, 可以通过非线性变换转化为某个高维空间中的线性问题, 在变换空间求最优分类面. 这种变换可能比较复杂, 因此这种思路在一般情况下不易实现. SVM本质上是两类分类器. 常用的SVM多值分类器构造方法有: 支持向量机 核: 通常的内核函数 线性内核 径向基函数内核
您可能关注的文档
最近下载
- 食堂用餐协议书范本(2025版).docx VIP
- 中建八局《质量标准化系列做法(主体结构工程)》2022年.pptx VIP
- TD_T 1021-2009县级土地利用总体规划制图规范.pdf VIP
- 粤人版英语五年级下册Review1 Reading and writing 课件.pptx VIP
- 离散数学崔艳荣习题答案.docx VIP
- 人教版八年级体育与健康:学会与他人交往 (2).pptx VIP
- 《水力发电》课件.pptx VIP
- 企业工会助推企业高质量发展.docx VIP
- GB50974-2014 消防给水及消火栓系统技术规范.pdf VIP
- 新风系统入门培训资料.ppt VIP
文档评论(0)