- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
支持向量机介绍统计学习理论
统计学习理论是小样本统计估计和预测学习的最佳理论。假设输出变量Y与输入变量X之间存在某种对应的依赖关系,即一未知概率分布P(X,Y),P(X,Y)反映了某种知识。学习问题可以概括为:根据l个独立同分布(independentlydrawnandidenticallydistributed)的观测样本trainset,(x1,y1),(x2,y2),…,(xn,yn)统计学习理论
支持向量机(SVM)支持向量机(SupportVectorMachine,SVM)是由Boser,Guyon和Vapnik发明,并首次在计算学习理论(COLT)1992年年会论文中提出。它是继人工神经网络后,智能计算领域发展的又一里程碑。支持向量机以严格证明的统计学习理论为基础,使用核函数把数据从样本空间映射到高维特征空间,将非线性问题转化为线性可分问题,获得最优解,是一重大的理论创新。支持向量机有严密的数学基础,训练结果只与支持向量有关,且泛化性强,成为了解决非线性问题的重要工具,因此,受到智能计算领域学者的广泛关注,在模式分类和回归领域得到了广泛的应用。
机器学习的基本问题和方法从给定的函数集Ω中选择出能够最好地逼近系统响应的函数ω系统(S)学习机器(LM)输入x输出y
有指导机器学习的目的是根据给定的训练样本,求出对某系统输入输出之间依赖关系的估计,使它能够对未知输入作出尽可能准确的预测。可以一般地表示为:变量y与x存在一定的未知依赖关系,即遵循某一未知的联合概率F(x,y)(x和y之间的确定性关系可以看作是其特例),有指导机器学习问题就是根据N个独立同分布观测样本在一组函数{f(x,w)}中求一个最优的函数f(x,w0)对依赖关系进行估计,使期望风险最小010302
期望风险学习到一个假设H=f(x,w)作为预测函数,其中w是广义参数.它对F(X,Y)的期望风险R(w)是(即统计学习的实际风险):其中,{f(x,w)}称作预测函数集,w为函数的广义参数。{f(x,w)}可以表示任何函数集。L(y,f(x,w))为由于用f(x,w)对y进行预测而造成的损失。不同类型的学习问题有不同形式的损失函数。
而对trainset上产生的风险Remp(w)被称为经验风险(学习的训练误差):首先Remp(w)和R(w)都是w的函数,传统概率论中的定理只说明了(在一定条件下)当样本趋于无穷多时Remp(w)将在概率意义上趋近于R(w),却没有保证使Remp(w)最小的点也能够使R(w)最小(同步最小)。12经验风险
因为是由训练样本(即经验数据)定义的,因此称之为经验风险。用求经验风险的最小值代替求期望风险R(a)的最小值,就是所谓的经验风险最小化(ERM)准则从期望风险最小化到经验风险最小化的理论依据是大数定理,只有当训练样本趋近于无穷大的时候,经验风险才趋近于期望风险。即:经验风险最小化准则
过学习OverfittingandunderfittingProblem:howrichclassofclassificationsq(x;θ)touse.underfittingoverfittinggoodfitProblemofgeneralization:asmallempricalriskRempdoesnotimplysmalltrueexpectedriskR.
由于经验风险最小化代替期望风险最小化的理论依据是大数定理,实际的机器学习不能满足训练样本趋近于无穷大这一苛刻的要求,致使经验风险最小化准则算法复杂性大与泛化能力差。例如:基于经验风险最小化准则人工神经网络研究中,广大学者总是把注意力集中在如何使更小,但很快便发现,一味追求训练误差小并不是总能达到好的预测效果。存在的问题
从理论上看,之所以出现过学习现象,1一是因为训练样本不充分,2二是机器学习的风险准则不合理。3出现这种现象的原因,就是试图用一个复杂的模型去拟合有限的样本,结果导致丧失了推广能力。在神经网络中,如果对于有限的训练样本来说网络的学习能力过强,足以记住每一个训练样本,此时经验风险很快就可以收敛到很小甚至零,但学习机器却根本无法保证它对未来新的样本能够得到好的预测。这就是有限样本下学习机器的复杂性与推广性之间的矛盾。因此,关于学习机器复杂性和推广能力,得到以下的结论,4原因
经验风险最小并不一定意味着期望风险最小;01学习机器的复杂性不但与所研究的系统有关,而且要和有限的学习样本相适应。02结论
单击此处添加大标题内容单击此处添加正文,文字是您思想的提炼,为了演示发布的良好效果,请言简意赅地阐述您的观点。您的内容已经简明扼要,字字珠玑,但信息却千丝万缕、错综复杂,需要用
文档评论(0)