- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE
PAGE 6
一、基本概念
特征、特征向量、特征空间
样本、模式、模式类、统计模式识别
训练集和测试集
分类器、判别函数、决策面、决策域
Bayes决策
Fisher判别,感知器
线性分类器
准则函数
内积和外积
优化算法(梯度下降算法,Lagrange乘子法)
特征提取与选择
K-L变换
监督和非监督学习
多层感知器
人工神经网络
支持向量机
二、简述题
证明最小错误率Bayes决策的错误率最小。
简述模式识别系统组成和主要的模式识别方法。
列举模式识别的应用。
试分析Fisher准则函数的物理意义,线性分类器中的权向量w和阈值权w0的几何意义?
为何Fisher线性判别中的权向量w乘上一个比例因子不影响识别效果?
应用Bayes决策方法进行模式分类的前提是什么,如何进一步改善Bayes决策的正确率?
为什么说近邻法是线性分类器?
如果各类服从协方差矩阵相等的多元正态分布Σi=σ2 I, i=1,…c,最小错误率Bayes决策的判别函数是,说明这种情况为什么Bayes决策是最小距离分类器?
如果各类协方差矩阵相等Σi=σ2 I, i=1,…c,多元正态分布下Bayes判别函数为,说明在这种情况决策超平面为何靠近先验概率较小的类。
K-L变换的最佳准则是什么?为什么说经主分量分析后,消除了各分量之间的相关性?
试分析感知器的解区的几何意义。
单层感知器收敛的条件是什么?
支持向量机(SVM)方法的原理,试述如何求一个训练样本集的支持向量
人工神经网络和支持向量机(SVM)的优缺点?
支持向量机方法如何使其达到结构风险最小的?为什么能够解决小样本问和非线性问题?
支持向量机(SVM)方法中核函数是如何应用的,其作用是什么?
支持向量机如何解决非线性判别中的维数灾难问题?
为何说感知器是人工神经网络的雏形?
三层感知器为何可以解决异或问题?
多层神经网络为何可以解决非线性拟合问题?
具有两个隐层的神经网络每层的作用?
人工神经网络的结构如何设计?
反向传播(BP)算法的原理
三、计算分析题
在两类二维问题中,每类的特征向量都是正态分布的,协方差矩阵相同为,并且已知两类的均值分别为μ1=(1, 0)T,μ2=(-1, 0)T先验概率相等。
根据最小错误率分类器对特征向量x=(0, 1)T分类;
主轴长度为,画出从 (0, 1)T到μ1的Mahalanobis等距离曲线。
解:(1)正态分布下协方差矩阵相等且先验概率相等的条件下, 最小错误率分类器的决策面是直线,判别函数是样本到均值的Mahalanobis距离。
x1
x1
x2
v1
v2
(2)
已知两类别训练样本为:w1:{ (-1, -2 )T ,(-3, 0)T },w2:{ (0, 0)T,(2, 4)T}
,试用Fisher 准则设计线性分类器,求w和y0。
解:,
,
, , 。
已知两类别训练样本为:w1:{ (1,0 )T ,(-2, 1)T },w2:{ (0, -2)T,(-1,-1)T}
用感知器固定增量算法求解向量a(a(0)= (0,2 )T),画出决策面H。
解:
x
x2
x1
H
a
先将样本规范化,令:,
令四个规范化后的样本分别为:y1=(1,0)T,y2=(-2, 1)T,y3=(0, 2)T,y4=(1,1)T。
令a0= (0,2)T,错分类的样本为y1,
a1= (0,2)T +(1,0)T =(1,2)T,错分类的样本为y2,
a2= (1,2)T +(-2, 1)T =(-1, 3)T,错分类的样本为y1,
a3= (-1, 3)T +(1,0)T =(0, 3)T,错分类的样本为y1,
a4= (0, 3)T +(1,0)T =(1, 3)T,无错分类样本,为所求解向量。
决策面H为垂直解向量a4的直线。
试将以下样本数据集用近邻法进行分类,画出决策面。
第一类样本:(0,1)T,(1,0)T 第二类样本:(0,0)T,(-1,0)T
解:分类器决策面如下图。
已知有两个数据集,分别为
w1: (1,0,1), (1,1,1)
w2: (0,1,1), (1,1,0)
试按判据将特征空间降为一维,求其坐标轴u1;
解:分别求两组数据的均值及类内离散矩阵 得,
,
特征值 ,非零特征值对应的特征向量为
类间离散矩阵
所以为所求坐标轴。
二维特征空间被三条直线划分为7个部分,两类样本的分布如图1所示,神经元采用阈值函数,试设计多层神经网络将两类样本分开。
w2w2x2y3:x2=1y2
w2
w2
x2
y3:x2=1
y2:x1 =2
w1
y1:x1+ 2x2=1
x1
y1
y2
y3
000
101
001
011
111
110
100
010
图1 两类样
您可能关注的文档
最近下载
- 城市轨道交通运营公司“青年突击队”组建及实施方案.docx
- 沪发改投(2012)130号文.docx VIP
- 梵高——.ppt VIP
- 2025年山东黄金集团井下技能工人招聘(2025人)笔试历年参考题库附带答案详解(10卷合集).docx
- 液压装配知识培训课件.pptx
- 安全文明施工的安全防护设施.pptx VIP
- 人教版高中英语选择性必修第一册UNIT1单元测试含答案 .pdf VIP
- 湖南湘西卫生系统招聘考试(护理学专业知识)题含答案2024年.docx VIP
- 建筑工程图集 07SJ504-1:隔断隔断墙(一).pdf VIP
- GB1094.7-2016 电力变压器 第7部分:油浸式电力变压器负载导则.docx VIP
文档评论(0)