- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
分类超曲面算法复杂度研究
何清1),2) 赵卫中1),2) 史忠植1)
1)(1.中国科学院计算技术研究所智能信息处理重点实验室 北京 100190)
2)(2.中国科学院研究生院 北京 100039)
摘 要 分类超曲面算法是一种简单的基于覆盖的分类算法.实验证明该算法具有分类正确率高、速度快的优点.但是,关于该算法的相关理论问题需要深入研究.本文对该算法的几个相关理论问题进行了研究.首先给出并证明了在分割的最大层数给定时算法假设空间的VC维,在此基础上结合可能近似正确(Probably Approximately Correct:PAC)学习框架,得出了对算法样本复杂度的估计,使得分类超曲面算法保证可PAC学习到任意目标概念.其次,分析了算法的时间复杂度和空间复杂度.最后,给出了无矛盾样本集的概念,并证明当输入样本集是有限无矛盾样本集的条件下,算法一定是收敛的.
关键词 分类超曲面算法,VC维,PAC可学习性,样本复杂度
1 引 言
分类算法研究是机器学习的核心研究内容,分类能力是人类智能的最显著特征之一.基于拓扑学中的Jordan曲线定理,何清等[1,2,3]提出了一种通用的覆盖型分类方法——分类超曲面算法.该方法直接在原空间解决非线性分类问题,通过区域细化与区域合并获得由多个超平面组成的双侧闭曲面作为分类超曲面对空间进行划分,通过计算样本点关于分类超曲面的围绕数的奇偶性即可简单方便地判定其类别.实验表明,在二维、三维及高维空间中,分类超曲面算法分类正确率高、速度快;而存储量和计算量都很小,从而能够处理海量数据.各种分类算法共有的局限性是:每种算法的推广性都依赖于测试数据分布与训练数据分布是否一致.但如何获得数据分布,如何划分可以使测试数据分布与训练数据分布一致是一个难以解决的重要问题.在分类超曲面算法方面,文献[4]通过对极小样本集的研究找到了答案,解决了为什么极小样本集会影响分类准确率的问题,还指出了极小样本集有多少种表达方式.但是,对于该算法的相关理论问题还需要深入研究.在本文中,我们研究了分类超曲面算法的几个相关理论问题,包括VC维,样本复杂度,时间复杂度,空间复杂度以及收敛性等,使分类超曲面算法的理论更加完整.
本文结构如下.第二节介绍了与本文相关的工作,包括VC维,PAC框架的相关概念以及分类超曲面算法的简略描述.第三节分析了分类超曲面算法的相关理论问题,其中首先证明了算法假设空间的VC维,在此基础上结合PAC框架求得了算法的样本复杂度;接着分析了算法的时间复杂度和空间复杂度;最后给出了算法收敛的条件.第四节对我们的工作进行总结.
2 相关工作
2.1 VC维的概念
VC维是假设空间复杂度的度量标准.为了描述这一概念,首先引入对一个实例集合打散(Shattering)的概念[5].对于假设空间H,样本集X以及X的某个子集S,H中的每个假设h导致S的某个划分,即h将S划分为两个子集{x∈S| h(x)=1}以及{x∈S| h(x)=0}.当S的每个可能的划分都可由H中的某个假设来表达时,我们就称H打散S.
如果一个实例集合没有被假设空间打散,那么必然存在某个概念(划分)可被定义在实例集之上,但不能由假设空间表示.因此,H的这种打散实例集合的能力是其表示这些实例上定义的目标概念的能力.
定义在实例集X上的假设空间H的VC维是可被H打散的X的最大有限子集的大小,记作VC(H[5].如果X的任意大的子集可被H打散,则VC(H)≡∞.
2.2 PAC学习框架及样本复杂度
为了描述学习算法L输出的假设h对真实目标概念c的逼近程度,我们引入假设h对于目标概念c和实例分布D的真实错误率.假设样本集X中样本按照概率分布D随机产生.对于X中任意样本x及其目标值c(x)提供给学习算法L,学习算法L输出的假设h的真实错误率为把h应用到将来按分布D抽取的实例时期望的错误率,用表示.即,其中符号表示在实例分布D的概率.
如果一个假设空间是H的机器学习算法L满足如下条件,我们就称L是可PAC学习的:给定任意的实数ε,δ满足以及,如果存在一个正整数,对于任意的目标概念c∈H和样本分布D,当样本数时,学习算法L将以至少的概率输出一个假设h∈H,使 [6].
在上面的定义中,m0是一个学习算法以较高的概率收敛到目标概念所需样本数目的边界,称为学习算法的样本复杂度,即样本复杂度是一个学习算法所需样本数目以确保在误差ε范围内以至少的概率学习到目标概念.
2.3 分类超曲面算法概述
分类超曲面算法的理论基础是拓扑学中的Jordan曲线定理.
Jordan曲线定理. 设是闭子集,X同胚于球面,那么它的余集有两个连通分支,一个是有界的,另一个是无界的,X中任何一点的任何邻域与这两个连通分支均相交.
Jordan曲线定理可以推广到高维空
文档评论(0)