基于核函数的学习算法概要.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
基于核函数的学习算法概要

核方法分为核函数设计和算法设计两个部分,具体情况如图1所示。核方法的实施步骤,具体描述为: ①收集和整理样本,并进行标准化; ②选择或构造核函数; ③ 用核函数将样本变换成为核矩阵; ④在特征空间对核矩阵实施各种线性算法;⑤得到输入空间中的非线性模型。 核函数 主要的核函数有三类: 多项式核函数 径向基函数 S形函数 有监督学习(supervised?learning) 监督学习,就是人们常说的分类,通过已有的训练样本(即已知数据以及其对应的输出)去训练得到一个最优模型(这个模型属于某个函数的集合,再利用这个模型将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的,也就具有了对未知数据进行分类的能力。 典型的例子就是SVM(可支持向量机)、KFD(基于核的Fisher判别分析)。 SVM(Support vector machines) SVM是基于SLT的一种机器学习方法。简单的说,就是将数据单元表示在多维空间中,然后对这个空间做划分的算法。 SVM是建立在统计学习理论的VC维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性之间寻求最佳折衷,以期获得最好的推广(泛化)能力。 支持向量机方法建立在统计学习理论基础之上,专门针对小样本情况下的机器学习问题。 对于分类问题,支持向量机方法根据区域中的样本计算该区域的分类曲面,由该曲面决定该区域中的样本类别。 已知样本x 为m 维向量, 在某个区域内存在n个样本: (x1,y1),(x2,y2),…,(xn,yn) 其中,xi 是训练元组,xi∈Rm,yi是类标号,yi∈{1,-1}。 若存在超平面( hyperplane): ω·x + b = 0 (1) 其中·表示向量的点积,如图1 所示,超平面能将这n 个样本分为两类,那么存在最优超平面不仅能将两类样本准确分开,而且能使两类样本到超平面的距离最大。式(1) 中的ω和b 乘以系数后仍能满足方程,进行归一化处理之后,对于所有样本xi ,式| ω·xi + b| 的最小值为1 , 则样本与此最优超平面的最小距离为|ω·xi + b |/‖ω‖= 1/‖ω‖,那么最优超平面应满足条件: yi(ω·xi + b)≥1,i=1,…,n. (2) 根据最优超平面的定义可知:ω和b 的优化条件是使两类样本到超平面最小距离之和2/‖ω‖最大。 此外,考虑到可能存在一些样本不能被超平面正确分类,因此引入松弛变量 (slack variable): ζi≥0, i=1,…,n. (3) 这样上述二元分类问题转换为在式(2) 和式(3)的约束下最小化: (4) 其中,非负常数C 为惩罚因子,C 值越大表示对错误分类的惩罚越大。这是一个具有线性约束的二次规划问题,利用拉格朗日乘子法可以将式(4) 转化为其对偶形式: (5) 约束条件: (6) 其中ai为原问题中与约束条件式(2) 对应的拉格朗日乘子。 这是一个不等式约束下的二次函数寻优问题,存在高效的算法求解。可以证明,在此寻优问题的解中有一部分ai不为0,它们所对应的训练样本完全确定了这个超平面,因此称其为支持向量(support vector)。 对于类型未知的样本x , 可以采用线性判决函数: 来判断其所属类别,综合式(9),可得分类判决函数: 根据核函数的相关知识,可以使用核函数K( xi ·xj )替代线性分类问题中的点积形式,从而实现非线性变换后的线性分类。由此,式(5) 的对偶形式可变为: 约束条件: 相应的分类判决函数转变为: Kernel Fisher discriminant analysis(基于核的Fisher判别方法) 是由Mika 等人于1999 年提出的方法。 核 Fisher 判别分析是一种很

文档评论(0)

yaocen + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档