- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
svm一种具有可学习性的学习模型
1 支持向量机理论svm
统计理论始于1960年末。在接下来的20年里,参与这一领域的人数很少。这期间,前苏联人VapnikChervonenkis做了大量开创性、奠基性的工作。这些工作主要是纯理论性的,故当时未引起人们的重视。进入90年代,该理论被用来分析神经网络,90年代中期,基于该理论设计的支持向量机(Support Vector Machine,简称SVM)在解决一系列实际问题中获得成功,表现出优良的学习能力尤其是泛化能力,从而引起人们对这一领域的极大关注。目前,有关这一理论及其应用的研究正在快速发展。不夸张地说,就象信息论为信息技术的崛起开辟道路一样,统计学习理论将带来机器学习领域一场深刻变革。
2 统计学习理论
2.1 及时掌握最优设计条件
设X是系统的输入空间,Y是输出空间,统计学习模型包括三要素,
p(x):输入空间X上的概率测度。
p(y|x):输出空间Y上的条件概率测度。
学习机:,∧是非空指标集,f:X→Y。
这样乘积空间X×Y上有概率测度p(x,y)=p(x)p(y|x)。今试图用函数f(x,α)来拟合输入x和输出y之间的关系,这种拟合是有风险(或损失)的,设风险为L(y,f(x,α)),则平均风险为。
学习的目标:寻找α0∈∧,使得R(α0)=min,前提条件是p(x,y)未知,仅仅知道样本(xi,yi),i=1,2,…,l。
这个模型具有一般性,包括了一些常见的学习问题,例如
模式识别:
密度估计:L=-ln p(x,y,α),p(x,y,α)是密度。
2.2 .p到pz
实质上,也为了今后讨论方便,学习问题可简练地写成
寻找α0∈∧,使得R(α0)=min,前提条件是概率分布p(z)未知,仅仅知道样本zi,i=1,2,…,l。
2.3 估计:正确理解概率收敛
经验风险最小化原理:为了求(2)中的α0,定义经验风险,把它的最小点αl作为α0的估计,即。
实际上,经验风险最小化原理并不陌生,最小均方误差和极大似然估计方法都是它的具体运用。现在的问题是:如此得到的确αl符合要求吗?即下式成立吗?
表示依概率收敛。
定义1若()式成立,称机器关于p具有可学习性。
2.4 重要的定义以下是模式识别的例子
定理1()成立的充要条件是
这个定理不但是机器可学习的充分条件而且是必要条件,故称关键定理。
2.5 .p或p无关
记。
称为VC-熵(E表示求数学期望),为生长函数。
结论(1)与p有关,因此它给出了对某个特定问题(或环境)机器可学习的充要条件;(2)与p无关,它给出了对任意问题(或环境)机器可学习的充要条件。这两个结果是统计学习理论中有里程碑意义的重要成果。
2.6 .机器的vc-维数
先介绍统计学习理论中一个极其重要的概念:VC-维数。
定义2设S是X上取邀0,1妖值的函数集合,A奂X。如果任给E奂X,总存在fE∈S满足fE(x)=1,x∈E;fE(x)=0,x∈A\E则称S VC-分开(VC-shatter)A。所有被S VC-分开的集合A所含元素个数的最大值,称为S的VC-维数(如果S能VC-分开元素个数任意大的集合A奂X,则S的VC-维数为∞)。
VC-维数是机器复杂度的一个度量。
由定理2和3可得结论:对任意p,机器可学习的充要条件是VC-维数有限。
90年代初,人们证明了神经网络的VC-维数与它的联结个数和神经元内部的传递函数有关,一般条件下是有限的,但可能是一个很大的数。
以上结论都是在样本数l→∞时成立,而实际问题中样本数总是有限的,甚至样本数很小(即小样本情况),为了分析这种情况下的学习质量,需要考虑
2.7(觹觹)的收敛速度
定理4设VC-维数h有限,则下式以概率1-η成立
关于定理4作如下说明:
(1)特别地,()对αl成立。
(2)()右端第一项反映训练样本的拟合程度;第二项与l/h有关,当l给定时随h增大而增大。
(3)要使实际风险尽量小,仅仅最小化经验风险是不够的,还必须同时降低机器的VC-维数。
(4)利用该结论可以分析神经网络的行为:要使网络对训练集拟合得好,比如说误差为0,就要扩大网络规模,规模扩大导致VC-维数h增大,从而(l给定时)第二项增大。因此即使第一项为0,总的平均风险R(αl)也可能很大,也就是网络的泛化能力差。这就是人们常说的过度拟合(Overfitting)。
2.8 求取l的二元样
结构风险最小化原理:设学习机,给它赋予一个结构使得且Sk的VC-维数有限。对大小为l的样本,先寻找Sk(或∧k)其中k=k(l),然后寻找使得()右端两项之和最小。
这样求出的确实比用经验风险最小化原理得到的αl有更好的性质。
定理5。
如何设计具体算法实现结构风险最小化原理呢?
2.9 x+b的确定
设训练样本x1,…,xl∈Rd且分别
您可能关注的文档
- 1例白光人工美学的检查体会.docx
- 2011年民航业发展统计公文.docx
- 2019年航空公司机场正常水平评估.docx
- egsb反应器处理啤酒废水的试验研究.docx
- i外包中的信息不对称与激励机制研究.docx
- nl-型观光试镜架的设计与应用.docx
- pe样本树脂炭黑分散性能的研究.docx
- r镜架插片位置对配镜效果的影响.docx
- y染色体的分子基础与男性生殖发育.docx
- 《洛尼山新考》商榷.docx
- 2026年中储粮海南有限公司招聘备考题库(10人)含答案详解(培优a卷).docx
- 2026国泰海通证券(投行专场)校园招聘备考题库含答案详解(实用).docx
- 2026江苏中烟工业有限责任公司高校毕业生招聘14人备考题库(第一批次)及答案详解(考点梳理).docx
- 浙江国企招聘-2025宁波国有资本研究院有限公司招聘5人备考题库附答案详解(a卷).docx
- 2025山东聊城临清市卫健系统事业单位招聘工作人员65人历年真题库附答案解析(夺冠).docx
- 2025年河北保定市公安局招聘警务辅助人员48名参考题库附答案解析(夺冠).docx
- 2025广东汕尾市华侨管理区就业见习招募7人(第三批)历年真题库带答案解析.docx
- 2025年成都市锦江区公开考核招聘教师(60人)笔试模拟试卷含答案解析(夺冠).docx
- 2025年温州理工学院单招(计算机)考试备考题库带答案解析.docx
- 浙江国企招聘-2025年温州瑞安市国有资产投资集团有限公司下属子公司公开招聘市场化工作人员2人备考题.docx
原创力文档


文档评论(0)