svm一种具有可学习性的学习模型.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
svm一种具有可学习性的学习模型 1 支持向量机理论svm 统计理论始于1960年末。在接下来的20年里,参与这一领域的人数很少。这期间,前苏联人VapnikChervonenkis做了大量开创性、奠基性的工作。这些工作主要是纯理论性的,故当时未引起人们的重视。进入90年代,该理论被用来分析神经网络,90年代中期,基于该理论设计的支持向量机(Support Vector Machine,简称SVM)在解决一系列实际问题中获得成功,表现出优良的学习能力尤其是泛化能力,从而引起人们对这一领域的极大关注。目前,有关这一理论及其应用的研究正在快速发展。不夸张地说,就象信息论为信息技术的崛起开辟道路一样,统计学习理论将带来机器学习领域一场深刻变革。 2 统计学习理论 2.1 及时掌握最优设计条件 设X是系统的输入空间,Y是输出空间,统计学习模型包括三要素, p(x):输入空间X上的概率测度。 p(y|x):输出空间Y上的条件概率测度。 学习机:,∧是非空指标集,f:X→Y。 这样乘积空间X×Y上有概率测度p(x,y)=p(x)p(y|x)。今试图用函数f(x,α)来拟合输入x和输出y之间的关系,这种拟合是有风险(或损失)的,设风险为L(y,f(x,α)),则平均风险为。 学习的目标:寻找α0∈∧,使得R(α0)=min,前提条件是p(x,y)未知,仅仅知道样本(xi,yi),i=1,2,…,l。 这个模型具有一般性,包括了一些常见的学习问题,例如 模式识别: 密度估计:L=-ln p(x,y,α),p(x,y,α)是密度。 2.2 .p到pz 实质上,也为了今后讨论方便,学习问题可简练地写成 寻找α0∈∧,使得R(α0)=min,前提条件是概率分布p(z)未知,仅仅知道样本zi,i=1,2,…,l。 2.3 估计:正确理解概率收敛 经验风险最小化原理:为了求(2)中的α0,定义经验风险,把它的最小点αl作为α0的估计,即。 实际上,经验风险最小化原理并不陌生,最小均方误差和极大似然估计方法都是它的具体运用。现在的问题是:如此得到的确αl符合要求吗?即下式成立吗? 表示依概率收敛。 定义1若()式成立,称机器关于p具有可学习性。 2.4 重要的定义以下是模式识别的例子 定理1()成立的充要条件是 这个定理不但是机器可学习的充分条件而且是必要条件,故称关键定理。 2.5 .p或p无关 记。 称为VC-熵(E表示求数学期望),为生长函数。 结论(1)与p有关,因此它给出了对某个特定问题(或环境)机器可学习的充要条件;(2)与p无关,它给出了对任意问题(或环境)机器可学习的充要条件。这两个结果是统计学习理论中有里程碑意义的重要成果。 2.6 .机器的vc-维数 先介绍统计学习理论中一个极其重要的概念:VC-维数。 定义2设S是X上取邀0,1妖值的函数集合,A奂X。如果任给E奂X,总存在fE∈S满足fE(x)=1,x∈E;fE(x)=0,x∈A\E则称S VC-分开(VC-shatter)A。所有被S VC-分开的集合A所含元素个数的最大值,称为S的VC-维数(如果S能VC-分开元素个数任意大的集合A奂X,则S的VC-维数为∞)。 VC-维数是机器复杂度的一个度量。 由定理2和3可得结论:对任意p,机器可学习的充要条件是VC-维数有限。 90年代初,人们证明了神经网络的VC-维数与它的联结个数和神经元内部的传递函数有关,一般条件下是有限的,但可能是一个很大的数。 以上结论都是在样本数l→∞时成立,而实际问题中样本数总是有限的,甚至样本数很小(即小样本情况),为了分析这种情况下的学习质量,需要考虑 2.7(觹觹)的收敛速度 定理4设VC-维数h有限,则下式以概率1-η成立 关于定理4作如下说明: (1)特别地,()对αl成立。 (2)()右端第一项反映训练样本的拟合程度;第二项与l/h有关,当l给定时随h增大而增大。 (3)要使实际风险尽量小,仅仅最小化经验风险是不够的,还必须同时降低机器的VC-维数。 (4)利用该结论可以分析神经网络的行为:要使网络对训练集拟合得好,比如说误差为0,就要扩大网络规模,规模扩大导致VC-维数h增大,从而(l给定时)第二项增大。因此即使第一项为0,总的平均风险R(αl)也可能很大,也就是网络的泛化能力差。这就是人们常说的过度拟合(Overfitting)。 2.8 求取l的二元样 结构风险最小化原理:设学习机,给它赋予一个结构使得且Sk的VC-维数有限。对大小为l的样本,先寻找Sk(或∧k)其中k=k(l),然后寻找使得()右端两项之和最小。 这样求出的确实比用经验风险最小化原理得到的αl有更好的性质。 定理5。 如何设计具体算法实现结构风险最小化原理呢? 2.9 x+b的确定 设训练样本x1,…,xl∈Rd且分别

您可能关注的文档

文档评论(0)

xcwwwwws + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档