模式识别_第6章_近邻法.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
模式识别_第6章_近邻法.ppt

第1章 绪论 第6章 近邻法 6.1 最近邻法, k—近邻法 6.2 误判概率上下界 6.3 改进的近邻法 Bayes方法需要借助概率密度函数估计。可以看出,其应用受到很大限制。事实上,非参数模式识别方法更为实用。由于能解决许多实际的模式识别问题,虽然在许多情况下它们不是最优的,但却是应用的最多的有效的方法。统计模式识别中常用的基本非参数方法除了前面介绍的线性判别函数外,还有将要介绍的近邻法和聚类。近邻法属于有监督学习,聚类属于无监督学习。它是在已知模式类别的训练样本的条件下,绕开概率的估计,按最近距离原则对待识别模式直接进行分类。 * 近邻法 最近邻分类器(nearest neighborhood classifier, nnc): 最小距离分类器的一种极端的情况,以全部训练样本作为代表点,计算测试样本与所有样本的距离,并以最近邻者的类别作为决策。 最初的近邻法是由Cover和Hart于1968年提出的,随后得到理论上深入的分析与研究,是非参数法中最重要的方法之一。 c类问题,设 最近邻方法 6.1 最近邻决策规则—1-NN 最近邻分类规则: 对待识别模式 , 分别计算它与 个已知类别的样本 的距离,将它判为距离最近的那个样本所属的类。 如果 则 即 最近邻方法 6.1 最近邻决策规则—1-NN (1)已知N个已知类别样本X (2)输入未知类别样本x (3)计算x到xi?X,(i=1, 2,…,N)的距离di(x) (4)找出最小距离dm(x)=min{di(x)} (5)看xm属于哪一类:xm?ω2 (6) 判x?ω2 k-NN分类思想: 对待识别模式 , 分别计算它与 个已知类别的样本 的距离,取k个最近邻样本,这k个样本中哪一类最多, 就判属哪一类。 最近邻方法 6.1 最近邻决策规则—k-NN 即,令 与ωi的距离 如果 则 其中 表示k个近邻元中属于ωi的样本个数 最近邻方法 6.1 最近邻决策规则—k-NN (1)已知N个已知类别样本X (2)输入未知类别样本x (6) 判x?ω2 (4)找出x的k个最近邻元Xk={xi,i=1,2,…,k} (5)看Xk中属于哪一类的样本最多k1=3k2=4 (3)计算x到xi?X,(i=1, 2,…,N)的距离di(x) 下面我们先定性的比较一下最近邻分类法与最小错误率的Bayes分类方法的分类能力。 我们把 的最近邻 的类别看成是一个随机变量 , 的概率为后验概率 最近邻法错误率分析 按最小错误率的Bayes决策法则:以概率1决策 ; 按最近邻决策法则:以概率 决策 ; 最近邻法则可以看成是一个随机化决策 ——按照概率 来决定 的类别。 定义: 这里假设在三类问题中, 的后验概率分别为 按最小错误率的Bayes决策法则:以概率1决策 ; 按最近邻决策法则:以概率 决策 ;以概率 决策 。 当 时,最近邻法的决策结果与最小错误率的Bayes决策的决策结果相同,它们的错误率都是比较小的,两种方法同样的好,当 ,两者的错误概率接近于 ,两种方法同样的坏。下面我们将进一步分析近邻法的错误率。 最近邻法的错误率高于贝叶斯错误率,可以证明以下关系式成立: 由于一般情况下P*很小,因此又可粗略表示成: 可粗略说最近邻法的渐近平均错误率在贝叶斯错误率的两倍之内。 在N→∞的条件下,k-近邻法的错误率要低于最近邻法。 最近邻法和k-近邻法的错误率上下界都是在一倍到两倍贝叶斯决策方法的错误率范围内。 最近邻法错误率分析 从上面可以看出近邻法有方法简单的优点,但也存在这一些缺点: (1)存储量和计算量都很大; (2)没有考虑决策的风险,如果决策的错误代价很大时,会产生很大的风险; (3)以上的分析——渐近平均错误率,都是建立在样本数趋向无穷大的条件下得来的,在实际应用时大多是无法实现的。 6.3 改进的近邻法 近邻法的一个严重不足与问题是需要存储全部训练样本,以及繁重的距离计算量。 两类改进的方法: 一种是对样本集进行组织与整理,分群分层,尽可能将计算压缩到在接近测试样本邻域的小范围内,避免盲目地与训练样本集中每个样本进行距离计算。 另一种则是在原有样本集中挑选出

文档评论(0)

xinshengwencai + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5311233133000002

1亿VIP精品文档

相关文档