最新模式识别试题标准答案及评分标准(B卷)资料.docVIP

  • 7
  • 0
  • 约2.04千字
  • 约 8页
  • 2023-12-06 发布于北京
  • 举报

最新模式识别试题标准答案及评分标准(B卷)资料.doc

精品文档

精品文档

精品文档

精品文档

精品文档

精品文档

国防科技大学2008-2009学年秋季学期

《模式识别》考试试卷(B)卷标准答案及评分标准

考试形式:闭卷考试时间:120分钟满分:100分。

题号

总分

得分

评阅人

注意:1、所有答题都须写在此试卷纸密封线右边,写在其它纸上一律无效。

2、密封线左边请勿答题,密封线外不得有姓名及相关标记。

得分

一、选择填空题(共8小题,每空2分,共30分)

1、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有(②③)。

①已知类别样本质量;②分类准则;③特征选取;④量纲。

2、欧式距离具有(①②);马式距离具有(①②③④)。

①平移不变性;②旋转不变性;③尺度缩放不变性;④不受量纲影响的特性。

3、线性判别函数的正负和数值大小的几何意义是(正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。)。

4、感知器算法(①)。

①只适用于线性可分的情况;②线性可分、不可分都适用。

5、积累位势函数法较之于H-K算法的优点是(用于非线性可分情况(也可用于线性可分情况));位势函数K(x,xk)与积累位势函数K(x)的关系为(,)。

6、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于(某一种判决错误较另一种判决错误更为重要的)情况;最小最大损失判决准则主要用于(先验概率未知的)情况。

7、“特征个数越多越有利于分类”这种说法正确吗?(错)。特征选择的主要目的是(从n个特征中选出最有利于分类的的m个特征(mn),以降低特征维数)。一般在(可分性判据对特征个数具有单调性)和(Cnmn)的条件下,可以使用分支定界法以减少计算量。

8、散度Jij越大,说明wi类模式与wj类模式的分布(差别越大);当wi类模式与wj类模式的分布相同时,Jij=(0)。

得分

二、分析题(共3问,每问8分,共24分)

已知样本:

(1)用使用最小距离的层次聚类算法聚类,并画出解树;

(2)改用最大距离重做(1)。

(3)根据(1)(2),分析较合理的聚类结果应是什么?

解:

(1)计算样本间最小距离,逐层聚类如下(等距时,同时聚类亦可):

(2)计算样本间最大距离,逐层聚类如下(等距时,同时聚类):

(3)①当类数为3时,(1)(2)结果均为:

{x1,x2},{x3,x4}和{x5,x6},所以认为这是3类时较合理的聚类结果。

②当类数为2时,(1)有两种结果,(2)只有一种结果:{x1,x2,x3,x4},{x5,x6}且是(1)(2)共同的结果,故认为它是2类时的合理结果。通过计算各种可分性判据,均可得出同样的结论。

③因为,所以,{x1,x2},{x3,x4}和{x5,x6}是合理的聚类结果。

得分

三、计算题(共3小题,每小题6分,共18分)

在目标识别中,假定类型w1为敌方目标,类型w2为诱饵(假目标),已知先验概率P(w1)=0.2和P(w2)=0.8,类概率密度函数如下:

ìx0£x1

p(x|w1)=í2-x 1£x£2

?0其它

ìx-11£x2

p(x|w2)=í3-x2£x£3

?0其它

(1)求贝叶斯最小误判概率准则下的判决域,并判断样本x=1.5属于哪一类;

(2)求总错误概率P(e);

(3)假设正确判断的损失l11=l22=0,误判损失分别为l12和l21,若采用最小损失判决准则,l12和l21满足怎样的关系时,会使上述对x=1.5的判断相反?

解:(1)应用贝叶斯最小误判概率准则如果则判 (2分)

得l12(1.5)=1=4,故x=1.5属于w2。(2分)

(2)P(e)=

==0.08

(算式正确2分,计算错误扣1~2分)

(3)两类问题的最小损失准则的似然比形式的判决规则为:

如果

则判

带入x=1.5得到l12≥4l21

(算式正确2分,计算错误扣1~2分)

得分

四、综合题(共2小题,每小题9分,共18分)

设两类问题,已知七个二维矢量:

(1)画出1-NN最近邻法决策面;

(2)若按离样本均值距离的大小进行分类,试画出决策面。

解:

得分

五、证明题(10分)

设p(x)~N(m,s),窗函数j(x)~N(0,1),试证明Parzen窗估计

有如下性质:~。

证明:(1)(为书写方便,以下省略了hN的下标N)

文档评论(0)

1亿VIP精品文档

相关文档