第五章特征选择与特征提取Read.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第五章 特征选择与特征提取 5.1 问题的提出 前面主要介绍的是各种分类器的设计方法, 实际上我们已经完全可以解决模式识别的问题了。 然而在实际应用中,在分类器设计之前,往往需要对抽取出的特征进行一下处理,争取尽量减小特征的维数。在实践中我们发现,特征的维数越大,分类器设计的难度也越大, 一维特征的识别问题最容易解决, 我们只要找到一个阈值 t ,大于 t 的为一类, 小于 t 的为一 类。同时特征维数越大,要求的训练样本数量越多,例如在一维的情况下, 10 个训练样本 就可以比较好的代表一个类别了,而在 10 维空间中, 10 个训练样本则是远远不够的。这一 章中我们就来介绍一下减小特征维数的方法。 一般来说模式识别系统的输入是传感器对实物或过程进行测量所得到的一些数据, 其中 有一些数据直接可以作为特征, 有一些数据经过处理之后可以作为特征, 这样的一组特征一 般称为原始特征。 在原始特征中并不一定每个特征都是有用的, 比如在识别苹果和橙子的系 统中,我们可以抽取出的特征很多, (体积,重量,颜色,高度,宽度,最宽处高度) ,同样 还有可能抽取出其它更多的特征。 在这些特征中对分类有用的是 (颜色,高度,最宽处高度), 其它特征对识别意义不大, 应该去除掉。 这样的过程称为是特征选择, 也可以称为是特征压 缩。 N 维特征 X x1 , x2 , T 特征选择可以描述成这样一个过程,原始特征为 , xN ,从中 选择出 M 个特征构成新的特征矢量 T , M N 。 Y xi1 , xi1 , , xiM 同时,特征矢量的每一个分量并不一定是独立的, 它们之间可能具有一定的相关性, 比 如说高度和最宽处的高度,高度值越大, 最宽处的高度值也越大, 它们之间具有相关性,我 们可以通过一定的变换消除掉这种相关性,比如取一个比值:最宽处的高度 /高度。这样的 过程称为特征提取。 特征提取可以描述为这样一个过程,对特征矢量 X x1 , x2, , xN T 施行变换: yi hi X , i 1,2, , M , M N ,产生出降维的特征矢量 Y y1, y2, , yM T 。 在一个实际系统的设计过程中, 特征的选择和提取过程一般都需要进行, 首先进行特征 选择, 去除掉无关特征, 这些特征实践上根本就不需要抽取出来, 这部分传感器根本不需要安装, 这样也可以减小系统的的成本。然后进行特征提取,降低特征的维数。然后利用降维 之后的样本特征来设计分类器。 5.2 模式类别的可分性判据 在讨论特征选择和特征压缩之前, 我们先要确定一个选择和提取的原则。 对一个原始特 43 征来说,特征选择的方案很多, 从 N 维特征种选择出 M 个特征共有 C NM N ! 中 M ! N M ! 选法, 其中哪一种方案最佳,则需要有一个原则来进行指导。 同样,特征的压缩实际上是要 找到 M 个 N 元函数, N 元函数的数量是不可数的,这也要有一个原则来指导找出 M 个最 佳的 N 元函数。 我们进行特征选择和特征提取的最终目的还是要进行识别, 因此应该是以对识别最有利 原则,这样的原则我们称为是类别的可分性判据。 用这样的可分性判据可以度量当前特征维数下类别样本的可分性。可分性越大,对识别越有利,可分性越小,对识别越不利。 人们对的特征的可分性判据研究很多,然而到目前为止还没有取得一个完全满意的结 果,没有哪一个判据能够完全度量出类别的可分性。 下面介绍几种常用的判据, 我们需要根据实际问题,从中选择出一种。 一般来说,我们希望可分性判据满足以下几个条件: 与识别的错误率由直接的联系,当判据取最大值时,识别的错误率最小; 当特征独立时有可加性,即: N Jij x1, x2 , , xN Jij xk k 1 Jij 是 第 i 类 和 第 j 类 的 可 分 性 判 据 , Jij 越 大 , 两 类 的 可 分 程 度 越 大 , x1 , x2 , , xN 为 N 维特征; 3. 应具有某种距离的特点: Jij 0 ,当 i j 时; Jij 0 ,当 i j 时; Jij J ji ; 4. 单调性,加入新的特征后,判据不减小: Jij x1 , x2 , , xN Jij x1 , x2 , , xN , xN 1 。 但是遗憾的是现在所经常使用的各种判据很难满足上述全部条件, 只能满足一个或几个 条件。 一、基于几何距离的可分性判据 在介绍这一类判据之前,先来看一下各种几何距离的定义。 点与点的距离 这是我们前面已经介绍过的一种距离,可以有多种形式,如欧氏距离、街市距离、 马氏距离等,特征矢量 X 和 Y 之间的距离可以表示为: T d X , Y

文档评论(0)

173****1527 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档