- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
6.4.2 ID3算法 2. 算法及举例(9/9) S x3=1, y3 x3=2, x1,x2 图6.7 最终的决策树 x3=1 x3=2 x2=1, x1 x2=2, x1 x1=1, y1 x1=2, y2 x1=1, y2 x1=2, y3 x2=1 x2=2 x1=1 x1=2 x1=2 x1=1 第6章 符号学习 6.1 机器学习的基本概念 6.2 记忆学习 6.3 示例学习 6.4 决策树学习 6.5 统计学习 统计学习是一种基于小样本理论的学习方法,其典型方法是支持向量机(Support Vector Machine. SVM) 。 6.5.1 小样本统计学习理论 6.5.2 支持向量机 小样本统计学习理论一种以有限样本统计学理论为基础进行统计学习的理论。其核心是结构风险最小化原理,涉及的概念主要包括经验风险、期望风险和VC维等。 6.5.1 小样本统计学习理论 1. 期望风险和经验风险(1/2) 期望风险 统计学习是要根据给定的训练样本,求出用联合概率分布函数P(x, y)表示的输入变量集x和输出变量集y之间未知的依赖关系,并使期望风险最小。 设有n个独立且同分布(即具有相同概率分布)的训练样本 (x1, y1),(x2, y2),…,(xn, yn) 在一个函数集{ f(x, w) }中求出一个最优函数f(x, w0),使得系统用该函数对依赖关系进行估计时期望风险 为最小。 其中,w为函数的广义参数;f ( x,w )为学习函数集(或预测函数集),它可以表示任何函数集,用于从x预测y,目的是通过对训练样本的学习得到一个最优函数f ( x,w0 );L( y, f( x, w ) )为损失函数,表示因预测失误而产生的损失,该函数的具体表示形式与学习问题的类型有关。 (6.1) 6.5.1 小样本统计学习理论 1. 期望风险和经验风险(2/2) 对期望风险进行估计。 经验风险则是用样本损失的算术平均值进行计算的。 统计学习的目标就是要设计学习算法,使得该经验风险最小化。这一原理也称为经验风险最小化原理。 经验风险 对上述期望风险函数,由于其中的概率分布函数P(x, y)未知,因此无法直接对其进行计算。常用的方法是利用经验风险函数 (6.2) (1) 打散操作 6.5.1 小样本统计学习理论 2. VC维(1/3) VC维是小样本统计学习理论中的又一个重要概念,用于描述构成学习模型的函数集合的容量及学习能力。通常,其VC维越大、容量越大、学习能力越强。 由于VC维是通过“打散”操作定义的,下面先讨论打散操作。 样本集的打散(shatter)操作可描述如下: 假设X为样本空间,S是X的一个子集,H是由指示性学习函数所构成的指示函数集。对一个样本集S,若其大小为h,则它应该有2h种划分,假设S中的每一种划分都能被H中的某个指示函数将其分为两类,则称函数集H能够打散样本集S。 所谓指示性学习函数是指其值只能取0或1的学习函数。 6.5.1 小样本统计学习理论 2. VC维(2/3) 例6.10 对二维实空间R2,假设给定的样本集S为R2中的不共线的3个数据点,每个数据点有两种状态,指示函数集H为有向直线的集合,求H是否可以打散S? 解: S中不共线的3个数据点可构成23种不同的点集,如图6.10所示。在该图中,可以看出,每一点集中的数据点,都能被H中的一条有向直线按其状态分为两类。即位于有向直线正方向一侧的数据点为一类,而位于有向直线负方向一侧的数据点为另一类。因此,我们说H能够打散S。 图6.10 在R2中被H打散的3个数据点 (2) VC维的确定 6.5.1 小样本统计学习理论 2. VC维(3/3) VC维用来表示指示函数集H能够打散一个样本集S的能力,其值定义为能被H打散的X的最大有限子集的大小。若样本空间X的任意有限大的子集都可以被H打散,则其VC为∝。 例如,对前面给出的例6.10,指示函数集H中的有向直线能够将大小为3的X的子集S打散,但却不能打散的4个点,如图6.11,因此该H的VC维至少为3。 可见,在R2中,由有向直线构成的指示函数集H,所能打散的R2的最大子集为3,因此H的VC维为3. 需要指出的是,目前还没有一套关于任意H的VC维的计算理论,只是对一些特殊空间,才知道其VC维。例如,对n维空间,知道其VC维为n+1。 图6.11 在R2中不能被H打散的4个点 * 第6章 符号学习 按照机器学习对人类学习方式的模拟,可分为符号学习和联结学习两大类,符号
您可能关注的文档
最近下载
- (正式版)D-L∕T 700-2017 电力物资分类与编码导则.docx VIP
- 精品解析:2025高考全国一卷语文(原卷版).pdf VIP
- 初中信息技术课堂教学中学生编程思维的培养研究教学研究课题报告[001].docx
- 起重吊装专项施工方案最终.doc VIP
- LVDT线性位移传感器的设计.pdf
- 人教版四年级数学上册第三单元《角的度量》(大单元教学设计).docx VIP
- 电力网络分析软件:OpenDSS二次开发_(2).电力系统建模方法.docx VIP
- 2025至2030年中国卡车行业市场运营格局及未来前景分析报告.docx
- 中医药适宜技术培训试题及答案.docx VIP
- 监理合同居间协议书.docx VIP
文档评论(0)