基于实例的学习.ppt

  1. 1、本文档共38页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
2003.12.18 机器学习-基于实例的学习 作者:Mitchell 译者:曾华军等 讲者:陶晓鹏 机器学习 第8章 基于实例的学习 概述 已知一系列的训练样例,许多学习方法为目标函数建立起明确的一般化描述, 基于实例的学习方法只是简单地把训练样例存储起来,从这些实例中泛化的工作被推迟到必须分类新的实例时 每当学习器遇到一个新的查询实例,它分析这个新实例与以前存储的实例的关系,并据此把一个目标函数值赋给新实例 概述(2) 基于实例的学习方法包括: 假定实例可以表示成欧氏空间中的点 最近邻法 局部加权回归法 对实例采用更复杂的符号表示 基于案例的推理 基于实例的学习方法有时被称为消极学习法,它把处理工作延迟到必须分类新的实例时 这种延迟的学习方法有一个优点:不是在整个实例空间上一次性地估计目标函数,而是针对每个待分类新实例作出局部的和相异的估计 简介 基于实例的学习方法的学习过程只是简单地存储已知的训练数据,当遇到新的查询实例时,一系列相似的实例从存储器中取出,用来分类新的查询实例 与其他方法相比,基于实例的学习方法的一个关键差异是:可以为不同的待分类查询实例建立不同的目标函数逼近 许多技术不建立目标函数在整个实例空间上的逼近,只建立局部逼近,并将其用于与新实例邻近的实例 这样做的好处是:有时目标函数很复杂,但具有不太复杂的局部逼近描述 简介(2) 基于案例的学习(基于实例的学习的一种)使用复杂的符号表示法来描述实例,也按照这种方式确定邻近实例 基于实例的方法的不足: 分类新实例的开销可能很大。 几乎所有的计算都发生在分类时,而不是在第一次遇到训练样例时。如何有效地索引训练样例是一个重要的问题 当从存储器中检索相似的训练样例时,一般考虑实例的所有属性,如果目标概念仅依赖于很多属性中的几个,那么真正最“相似”的实例之间可能相距甚远 简介(3) k-近邻算法和它的几个变体 局部加权回归法,这是一种建立目标函数的局部逼近的学习方法,被看作k-近邻算法的一般形式 径向基函数网络,它为基于实例的学习算法和神经网络学习算法提供了一个有趣的桥梁 基于案例的推理,这是一种使用符号表示和基于知识的推理的方法 消极学习方法和积极学习方法之间的差异 k-近邻算法 k-近邻算法是最基本的基于实例的学习方法 k-近邻算法假定所有的实例对应于n维空间Rn中的点,任意的实例表示为一个特征向量a1(x), ..., an(x) 根据欧氏距离定义实例的距离。两个实例xi和xj的距离d(xi,xj)定义为 在最近邻学习中,目标函数值可以是离散的也可以是连续的,本节先考虑离散的情况。 k-近邻算法(2) 考虑离散目标函数f: Rn?V,V={v1,...,vs} 表8-1逼近离散值函数f: Rn?V的k-近邻算法 训练算法 将每个训练样例x,f(x)加入到列表training_examples 分类算法 给定一个要分类的查询实例xq 在training_examples中选出最靠近xq的k个实例,并用x1...xk表示 返回 其中 k-近邻算法(3) 表8-1的算法返回值是对f(xq)的估计,它是距离xq最近的k个训练样例中最普遍的f值,结果与k的取值相关。 图8-1图解了一种简单情况下的k-近邻算法,实例是二维空间中的点,目标函数具有布尔值,1-近邻算法把xq分类为正例,5-近邻算法把xq分类为反例 k-近邻算法不形成关于目标函数f的明确的一般假设,仅在需要时计算每个新查询实例的分类,但依然可以问:k-近邻算法隐含的一般函数是什么? 图8-1中右图画出了1-近邻算法在整个实例空间上导致的决策面形状。这种图称为训练样例集合的Voronoi图 k-近邻算法(4) 离散的k-近邻算法作简单修改后可用于逼近连续值的目标函数。即计算k个最接近样例的平均值,而不是计算其中的最普遍的值,为逼近f: Rn?R,计算式如下: 距离加权最近邻算法 对k-近邻算法的一个改进是对k个近邻的贡献加权,越近的距离赋予越大的权值,比如: 为了处理查询点xq恰好匹配某个训练样例xi,从而导致d(xq,xi)2为0的情况,令这种情况下的 等于f(xi),如果有多个这样的训练样例,我们使用它们占多数的分类 也可以用类似的方式对实值目标函数进行距离加权,用下式替代表8-1中的计算式,wi的定义与前相同 距离加权最近邻算法(2) k-近邻算法的所有变体都只考虑k个近邻用以分类查询点,如果使用按距离加权,那么可以允许所有的训练样例影响xq的分类,因为非常远的实例的影响很小 考虑所有样例的唯一不足是会使分类运行得更慢 如果分类一个新实例时,考虑所有的训练样例,我们称为全局法;如果仅考虑靠近的训练样例,称为局部法 当式子8.4应用于全局法时,称为Shepard法 对k-近邻算法的说明 距离

文档评论(0)

精品文档专区 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档