【复习题目2015 知识学习资料文件.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE PAGE 6 一、基本概念 特征、特征向量、特征空间 样本、模式、模式类、统计模式识别 训练集和测试集 分类器、判别函数、决策面、决策域 Bayes决策 Fisher判别,感知器 线性分类器 准则函数 内积和外积 优化算法(梯度下降算法,Lagrange乘子法) 特征提取与选择 K-L变换 监督和非监督学习 多层感知器 人工神经网络 支持向量机 二、简述题 证明最小错误率Bayes决策的错误率最小。 简述模式识别系统组成和主要的模式识别方法。 列举模式识别的应用。 试分析Fisher准则函数的物理意义,线性分类器中的权向量w和阈值权w0的几何意义? 为何Fisher线性判别中的权向量w乘上一个比例因子不影响识别效果? 应用Bayes决策方法进行模式分类的前提是什么,如何进一步改善Bayes决策的正确率? 为什么说近邻法是线性分类器? 如果各类服从协方差矩阵相等的多元正态分布Σi=σ2 I, i=1,…c,最小错误率Bayes决策的判别函数是,说明这种情况为什么Bayes决策是最小距离分类器? 如果各类协方差矩阵相等Σi=σ2 I, i=1,…c,多元正态分布下Bayes判别函数为,说明在这种情况决策超平面为何靠近先验概率较小的类。 K-L变换的最佳准则是什么?为什么说经主分量分析后,消除了各分量之间的相关性? 试分析感知器的解区的几何意义。 单层感知器收敛的条件是什么? 支持向量机(SVM)方法的原理,试述如何求一个训练样本集的支持向量 人工神经网络和支持向量机(SVM)的优缺点? 支持向量机方法如何使其达到结构风险最小的?为什么能够解决小样本问和非线性问题? 支持向量机(SVM)方法中核函数是如何应用的,其作用是什么? 支持向量机如何解决非线性判别中的维数灾难问题? 为何说感知器是人工神经网络的雏形? 三层感知器为何可以解决异或问题? 多层神经网络为何可以解决非线性拟合问题? 具有两个隐层的神经网络每层的作用? 人工神经网络的结构如何设计? 反向传播(BP)算法的原理 三、计算分析题 在两类二维问题中,每类的特征向量都是正态分布的,协方差矩阵相同为,并且已知两类的均值分别为μ1=(1, 0)T,μ2=(-1, 0)T先验概率相等。 根据最小错误率分类器对特征向量x=(0, 1)T分类; 主轴长度为,画出从 (0, 1)T到μ1的Mahalanobis等距离曲线。 解:(1)正态分布下协方差矩阵相等且先验概率相等的条件下, 最小错误率分类器的决策面是直线,判别函数是样本到均值的Mahalanobis距离。 x1 x1 x2 v1 v2 (2) 已知两类别训练样本为:w1:{ (-1, -2 )T ,(-3, 0)T },w2:{ (0, 0)T,(2, 4)T} ,试用Fisher 准则设计线性分类器,求w和y0。 解:, , , , 。 已知两类别训练样本为:w1:{ (1,0 )T ,(-2, 1)T },w2:{ (0, -2)T,(-1,-1)T} 用感知器固定增量算法求解向量a(a(0)= (0,2 )T),画出决策面H。 解: x x2 x1 H a 先将样本规范化,令:, 令四个规范化后的样本分别为:y1=(1,0)T,y2=(-2, 1)T,y3=(0, 2)T,y4=(1,1)T。 令a0= (0,2)T,错分类的样本为y1, a1= (0,2)T +(1,0)T =(1,2)T,错分类的样本为y2, a2= (1,2)T +(-2, 1)T =(-1, 3)T,错分类的样本为y1, a3= (-1, 3)T +(1,0)T =(0, 3)T,错分类的样本为y1, a4= (0, 3)T +(1,0)T =(1, 3)T,无错分类样本,为所求解向量。 决策面H为垂直解向量a4的直线。 试将以下样本数据集用近邻法进行分类,画出决策面。   第一类样本:(0,1)T,(1,0)T   第二类样本:(0,0)T,(-1,0)T 解:分类器决策面如下图。 已知有两个数据集,分别为 w1: (1,0,1), (1,1,1) w2: (0,1,1), (1,1,0) 试按判据将特征空间降为一维,求其坐标轴u1; 解:分别求两组数据的均值及类内离散矩阵     得, ,   特征值 ,非零特征值对应的特征向量为 类间离散矩阵 所以为所求坐标轴。 二维特征空间被三条直线划分为7个部分,两类样本的分布如图1所示,神经元采用阈值函数,试设计多层神经网络将两类样本分开。 w2w2x2y3:x2=1y2 w2 w2 x2 y3:x2=1 y2:x1 =2 w1 y1:x1+ 2x2=1 x1 y1 y2 y3 000 101 001 011 111 110 100 010 图1 两类样

文档评论(0)

工地殿小二 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档