- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
拟概率空间上学习理论及关键定理
论文所述工作背景
本文得到国家自然科学基金(编号等项目资助。
Vapnik 等人早在20世纪60、70年代就开始致力于研究有限样本下的机器学习问题,直到90年代中期,有限样本情况下的机器学习理论研究逐渐成熟起来,形成一个较完善的理论体系——统计学习理论[1-3] (Statistical Learning Theory,简称SLT)。在此学习理论中第一次强调了所谓小样本统计学的问题,经过研究表明,对很多函数的估计问题,通过考虑样本的数量,可以得到比基于传统统计技术的方法更好的解。因此,这一新的理论框架中的小样本统计学无论是在SLT中,还是在理论和应用统计学中都形成了一个前沿的研究方向。它不仅为研究有限样本下的统计模式识别和更广泛的机器学习问题建立了一个较好的理论框架,同时也发展了一种新的通用模式识别方法——支持向量机(Support Vector Machine,简称 SVM),能够较好地解决小样本学习问题[10-17]。在近40年的时间里,国内外出现了大量的此方面的论文,如[1-17],使得统计学习理论成为国际上机器学习领域新的研究热点。
学习理论的关键定理和学习过程收敛速度的界是统计学习理论的重要组成部分。学习过程收敛速度的界是分析学习机器性能和发展新的学习算法的重要基础通过对这些界的讨论,可以得到在ERM原则中经验风险与实际风险之间的关系,进而可以研究学习机器的推广能力学习理论的关键定理和学习过程收敛速度的界等概率空间上的性质得到的,这使得学习理论的关键定理和学习过程收敛速度的界但它仍有一些不完善之处,如概率空间的学习理论。众所周知,概率的可加性条件非常强*
哈明虎1, 冯志芳2, 宋士吉3, 高林庆1,
1、河北大学数学与计算机学院,保定 071002,中国;
2、廊坊师范学院数学与信息科学系,廊坊065000 中国;
3、清华大学自动化系,北京 100084,中国
摘要 进一步讨论了拟概率的一些性质,给出了拟概率空间上的拟随机变量及其分布函数、期望和方差的概念及若干性质;证明了拟概率空间上的Markov不等式、Chebyshev不等式和Khinchine大数定律;给出并证明了拟概率空间上学习理论的关键定理和学习过程一致收敛速度的界,把概率空间上的学习理论的关键定理和学习过程一致收敛速度的界推广到了拟概率空间,为系统地建立拟概率上的统计学习理论与构建支持向量机奠定了理论基础。
关键词 拟概率 期望风险泛函 经验风险泛函 关键定理 一致收敛速度的界
The key theorem and the bounds on the rate of uniform convergence of statistical learning theory on quasi-probability spaces
HA Minghu 1, FENG Zhifang 2, SONG Shiji 3, GAO Linqing1
1. College of Mathematics and Computer Sciences, Hebei University, Baoding 071002, China;
2. Department of Mathematics and Information Sciences, Langfang Normal School, Langfang 065000, China.
3. Department of Automation, Tsinghua University, Beijing 100084, China
Abstract Some properties of quasi-probability is further discussed. The definitions and properties of quasi-random variable and its distribution function, expected value and variance are then presented. Markov inequality, Chebyshev’s inequality and the Khinchine’s law of large numbers on quasi-probability spaces are also proved. Then the key theorem of learning theory on quasi-probability spaces is proved, and the bounds on the rate of uniform convergence of learning process on quasi-pr
文档评论(0)