中科院-国科大-黄庆明-模式识别与机器学习-期末考点-复习.pptxVIP

中科院-国科大-黄庆明-模式识别与机器学习-期末考点-复习.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

模式识别与机器学习;第一章概论

第二章统计判别

第三章判别函数

第四章特征选择和提取

第五章句法模式识别

第六章统计学习理论基础

第七章有监督学习基础算法

第八章支持向量机

第九章无监督学习与半监督学习

第十章图模型基础

第十一章集成学习

第十二章神经网络与深度学习

;掌握相关概念:模式、机器学习、基本组成

比如模式概念:

广义地说,存在于时间和空间中可观察物体,假如我们能够区分它们是否相同或是否相同,都能够称之为模式。

模式所指不是事物本身,而是从事物取得信息,所以,模式往往表现为含有时间和空间分布信息。

模式直观特征:

可观察性

可区分性

相同性

;;数据聚类

统计分类

结构模式识别

神经网络

监督学习

无监督学习

半监督学习

集成学习

增强学习

深度学习

;在贝叶斯分类器中,结构分类器需要知道类概率密度函数。

类概率密度是正态分布,均值向量和协方差矩阵

均值和协方差矩阵非随机参数预计

均值和协方差矩阵预计量定义

均值和协方差矩阵预计量迭代运算

均值向量和协方差矩阵贝叶斯学习

普通概念

单变量正态密度函数均值学习;贝叶斯判别别

贝叶斯最小风险判别:当考虑到对于某一类错误判决要比对另一类判决更为关键时,就需要把最小错误概率贝叶斯判别做一些修正,提出条件平均风险rj(x)

;线性判别函数

用判别函数分类概念

线性判别函数普通形式和分类问题

两类问题

多类情况:三类情况

广义线性判别函数

基本思想

广义线性判别函数意义

线性判别函数

判别函数选取二次多项式函数

判别函数选取r次多项式函数

分段线性判别函数

模式空间和权空间;Fisher线性判别

从d维空间到一维空间普通数学变换方法

Fisher准则函数定义

基于最正确变换向量投影

感知器算法

线性判别函数感知器赏罚训练算法

采取感知器算法多类模式分类

可训练确实定性分类器迭代算法

梯度法

固定增量逐次调整算法

最小平方误差算法;势函数法

判别函数产生

分析步骤

势函数选择

第一类势函数:对称有限多项式展开

第二类势函数:双变量对称函数

决议树介绍

概念

二??树;概念、意义

模式类别可分性测度:类内散度矩阵、类间散度矩阵

特征选择:定义可分性准则函数,如类内距离小,类距离大

特征提取:K-L变换(PCA)

思想:选取变换矩阵?,使得降维后新向量在最小均方差条件下靠近原来向量x

;离散K-L变换

将原来特征做正交变换,取得每个数据都是原来n个数据线性组合,然后从新数据中选出少数几个,使其尽可能多地反应各类模式之间差异,而这些特征间又尽可能相互独立,则比单纯选择方法更灵活、更有效。

K-L变换就是一个适合用于任意概率密度函数正交变换。

离散有限K-L展开

K-L展开式性质

K-L展开式系数计算步骤

按K-L展开式选择特征

三条结论

实例;不考;MachineLearning(概念、学习方法分类、历史)

StatisticalMachineLearning

普通框架、形式化:

产生式、判别式模型:前者先推断p(x,y),再利用贝叶斯求p(y|x);后者直接求解p(y|x)

过拟合和正则项(OverttingandRegularization):

经验风险最小化(EmpiricalRiskMinimization)

结构风险最小化(StructuralRiskMinimization):所谓结构风险最小化就是在确保分类精度(经验风险)同时,降低学习机器VC维,能够使学习机器在整个样本集上期望风险得到控制。

;StatisticalMachineLearning

偏差方差分解(BiasandVarianceDecomposition)

Trade-off:

Agoodinsightintomodelcomplexityissue:

Veryflexiblemodelshavinglowbiasandhighvariance.

Relativelyrigidmodelshavinghighbiasandlowvariance.

Themodelwiththeoptimalpredictivecapacityistheonethatleadstothebestbalancebetweenbiasandvariance.

;回归方法(regressionmethod)

线性回归(LinearRegression):

梯度下降求解:closedformsolution

随机梯度下降:StochasticGradientDescent

在高斯噪声情形下,最小化均方误差(LMS)和与最大化似然(MLE)得到解是一样。

RegularizedLM

文档评论(0)

180****1080 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档