- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
统计学复习答案1-5.
传统的统计模式识别体系是什么?基于确定性推理一分类方法回归分析(基于最小二乘法)线性分类器(感知机,logistic回归,支持向量机)非线性分类器(多层感知机,核支持向量机)二特征生成(无监督学习)流形学习(把维数降低)稀疏表示(把维数增高)深度学习(卷积神经网络,自解码神经网络)聚类算法三、理论分析复杂度分析泛化能力分析基于概率原理一分类算法基于贝叶斯决策理论(基于分类损失最小角度)二特征生成深度学习(基于玻尔兹曼机方法)具有概率的PCA(概率神经网络)三数据的概率表达含参模型(EM算法),不含参模型(数据独立)概率图模型(马尔可夫链)【附加】物理环境、数据获取/感知、预处理、特征提取、训练数据、特征提取/选择、模型学习/估计、后处理、分类、决策。什么是生成模型?判别模型?及其他们各自的特点?【附加】生成模型又叫产生式模型,估计的是联合概率分布。通过学习联合概率分布P(x,y),然后求出条件概率分布P(Y|X)作为预测模型,P(Y|X)= P(x,y)/P(X)模型表达了输入X,与产生Y的生成关系。(用于随机生成的观察值建模,特别是在给定某些隐藏参数情况下。在机器学习中,或用于直接对数据建模(用概率密度函数对观察到的draw建模),或作为生成条件概率密度函数的中间步骤。通过使用贝叶斯rule可以从生成模型中得到条件分布。)判别模型又可以称为条件模型,或条件概率模型,估计的是条件概率分布。判别模型由数据学习决策函数f(x)或者条件概率分布P(Y|X)作为预测模型,即判别模型。(又可以称为条件模型,或条件概率模型。估计的是条件概率分布(conditional distribution), p(class|context)。利用正负例和分类标签,focus在判别模型的边缘分布。目标函数直接对应于分类准确率。)生成模型的特点:可以还原联合概率分布P(x,y);当样本容量增加时,学到的模型更快收敛到真实模型;存在隐变量,还可以学习;(网上资料:?一般主要是对后验概率建模,从统计的角度表示数据的分布情况,能够反映同类数据本身的相似度。只关注自己的inclass本身(即点左下角区域内的概率),不关心到底 decision boundary在哪。)判别模型特点:直接面对预测学习,通常准确率高;可以对数据进行各种程度上的抽象、定义特征和使用特征。(网上资料:寻找不同类别之间的最优分类面,反映的是异类数据之间的差异。)讨论线性回归模型中参数向量的最大后验估计和最大似然估计之间的基本差别?最大后验估计是根据经验数据获得对难以观察的量的点估计,与最大似然估计类似,但是最大的不同是,最大后验估计融入了要估计量的先验分布,故最大后验估计可以看做是规则化的最大似然估计。最大似然估计提供了一种给定观察数据来评估模型参数的方法,即“模型已定,参数未知”。最大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布。通过采样,获取部分数据,然后通过最大似然估计来获取满足假设中的正态分布的均值和方差。最大似然估计只考虑某个模型能产生某个给定观察序列的概率,而未考虑该模型本身的概率。最大似然估计的一般求解过程:1、写出似然函数;2、对似然函数取对数;3、求导数;4、解似然方程。试描述基于最小二乘法求解线性回归问题的步骤?答案:1、假定有训练集定义如下能量函数:2、通过梯度下降算法,计算得到,,称为学习速率。3、令,,因此,计算参数的算法是。对于N个样本情形,可以改造算法如下:感知机学习算法原理?感知机学习算法练习批更新算法首先判断给定误分类点所属的正确分类,然后批更新权重值注意当误分类为负值时将负号放在μ前相乘支持向量机的基本原理?软间隔支持向量机原理?支持向量机原理:在线性可分的情况下,寻求一个超平面,使得超平面将样本集分开,并且满足对于分类样本的几何间隔最大化(求解时定义函数间隔为一将其转化为对偶问题求解)软间隔:样本线性近似可分的情况下不满足函数间隔大于等于1的情况引入松弛变量(针对每一个样本点(作用)衡量间隔最大和误分类点个数)什么是支持向量?答案:位于两个超平面上的点就称为支持向量。线性可分的情况下:训练样本集中距离分类超平面距离最近的实例点。位于分界线上的点训练数据中对应于α0的实例点称为支持向量。能推导对偶函数,得出KKT条件。参见课件最后例子。能基于支持向量机的方法,推导决策面,参见统计学习方法书。根据上题公式Ld 对α求导求出各α的值为什么多层感知机能进行非线性分类?(基于异或问题讨论)试描述多层感知机的BP算法?能运用BP算法在实例中,进行计算,参见课件例子。解释核支持向量机的基本愿力,并阐述对核的基本要求?为什么要多核学习?并描述多核学习算法步骤?描述adaboost算法的基本原理?答案:针对同一个训练集训练不同的分类器(弱分类器)
文档评论(0)