川大模式识别考试复习题 - 试题.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

下关于统计学习方法推广性的界的结论(3)在这些界的基础上建立的小样本归纳推理原则(4

下关于统计学习方法推广性的界的结论(3)在这些界的基础上建立的小样本归纳推理原则(4)实现这些新的原

型性②确定一个准则J=J(w,x),能反映分类器性能,且存在权值w*使得分类器性能最优③设计求解w的

学习的最佳理论。主要内容包括4个方面:(1)经验风险最小化原则下统计学习一致性的条件(2)在这些条件

灌木和坦克,判决a1=w1,a2=w2。现在做了2次实验,获得2个样本的类概率密度如下:P(x|)0

简答题

1.什么是模式与模式识别?

模式:对象之间存在的规律性关系;

模式识别:是研究用计算机来实现人类模式识别能力的一门学科。

/*模式:广义地说,模式是一些供模仿用的、完美无缺的标本。本课程把所见到的具体事物称为模式,而将它们归属的类别称为模式类。模式的直观特性:可观察性,可区分性,相似性

模式识别:指对表征事物或现象的各种形式的(数值的、文字的和逻辑关系的)信息进行处理和分析,以对事物或现象进行描述、辨认、分类和解释的过程。*/2.一个典型的模式识别系统主要由哪几个部分组成

3.什么是后验概率?

系统在某个具体的模式样本X条件下位于某种类型的概率。

4.确定线性分类器的主要步骤

①采集训练样本,构成训练样本集。样本应该具有典型性

②确定一个准则J=J(w,x),能反映分类器性能,且存在权值w*使得分类器性能最优

③设计求解w的最优算法,得到解向量w*

5.样本集推断总体概率分布的方法

6.近邻法的基本思想是什么?

作为一种分段线性判别函数的极端情况,将各类中全部样本都作为代表点,这样的决策方法就是近邻法的基本思想。

7.什么是K近邻法?

取未知样本x的k个近邻,看这k个近邻中多数属于哪一类,就把x归为哪一类。7.监督学习与非监督学习的区别

利用已经标定类别的样本集进行分类器设计的方法称为监督学习。很多情况下无法预先知道样本的类别,从没有标记的样本集开始进行分类器设计,这就是非监督学习。

/*监督学习:对数据实现分类,分类规则通过训练获得。该训练集由带分类号的数据集组

征组合而不影响结果为最优。12统计学习理论的核心问题统计学习理论被认为是目前针对小样本统计估计和预测下关于统计学习方法推广性的界的结论(

征组合而不影响结果为最优。12统计学习理论的核心问题统计学习理论被认为是目前针对小样本统计估计和预测

下关于统计学习方法推广性的界的结论(3)在这些界的基础上建立的小样本归纳推理原则(4)实现这些新的原

逐级聚合成一类。基本思路是根据类间相似性大小逐级聚合,每级只把相似性最大的两类聚合成一类,最终把所有

9.必考:针对某个识别对象设计自己的模式识别系统,并叙述各步骤主要工作计算题在图像识别中,假定有灌木

成,因此监督学习方法的训练过程是离线的。

非监督学习方法不需要单独的离线训练过程,也没有带分类号的训练数据集,一般用来对

数据集进行分析。如聚类,确定其分布的主分量等。*/

8.什么是误差平方和准则?

对于一个给定的聚类,均值向量是最能代表聚类中所有样本的一个向量,也称其为聚类中心。一个好的聚类方法应能使集合中的所有向量与这个均值向量的误差的长度平方和最小。9.分级聚类算法的2种基本途径是什么

按事物的相似性,或内在联系组织起来,组成有层次的结构,使得本质上最接近的划为一类,然后把相近的类再合并,依次类推,这就是分级聚类算法的基本思想。

聚合法:把所有样本各自看为一类,逐级聚合成一类。基本思路是根据类间相似性大小逐级聚合,每级只把相似性最大的两类聚合成一类,最终把所有样本聚合为一类。

分解法:把所有样本看做一类,逐级分解为每个样本一类。

10.特征抽取与特征选择的区别?

特征抽取:原始特征的数量可能很大,或者样本处于一个高维空间中,通过映射(或变换)的方法可以用低维空间来表示样本,这个过程叫特征抽取。所谓特征抽取在广义上就是指一种变换。

特征选择:从一组特征中挑选出一些最有效的特征以达到降低特征空间维数的目的,这个过程叫特征选择。

特征抽取是通过变换的方法组合原始高维特征,获得一组低维的新特征,而特征选择是根据专家的经验知识或根据某种评价准则来挑选出那些对分类最有影响力的特征,并未形成新的特征。

11.什么是最优搜素算法?

最优搜索算法:至今能得到最优解的唯一快速算法是“分支定界”算法。属于自上而下的算法,具有回溯功能。由于合理地组织搜索过程,使得有可能避免计算某些特征组合而不影响结果为最优。

12统计学习理论的核心问题

统计学习理论被认为是目前针对小样本统计估计和预测

文档评论(0)

ʚི皇小羽་ྀɞ + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档