3第三章 概率密度函数的参数估计 - 2013(1).pptVIP

  • 4
  • 0
  • 约7.78千字
  • 约 74页
  • 2019-11-06 发布于广东
  • 举报

3第三章 概率密度函数的参数估计 - 2013(1).ppt

3.1 引言 3.2 最大似然估计 3.3 贝叶斯估计与贝叶斯学习 3.4 期望最大化算法(EM算法) 3.5 隐马尔可夫模型HMM (补充) 3.6 本章小结 3.1 引言 贝叶斯分类器中最主要的问题是类条件概率密度函数的估计。 问题可以表示为:已有c个类别的训练样本集合D1,D2,…,Dc,求取每个类别的类条件概率密度 。 1. 参数估计方法(parametric estimation ) :预先假设每一个类别的概率密度函数的形式已知,而具体的参数未知; 最大似然估计(MLE, Maximum Likelihood Estimation); 贝叶斯估计(Bayesian Estimation)。 2. 非参数估计方法(nonparametric estimation ) 。 3.2 最大似然估计 样本集D中包含n个样本:x1,x2, …, xn,样本都是独立同分布的随机变量(i.i.d,independent identically distributed)。 对类条件概率密度函数的函数形式作出假设,参数可以表示为参数矢量θ(待估参数θ是确定的未知量): 由独立同分布假设,样本集D出现的概率为: 最大似然估计就是要寻找到一个最优矢量 ,使得似然函数 最大。 一.最大似然估计总结 假定: ①待估参数θ是确定的未知量 ②按类别把样本分成M类X1,X2,X3,… XM 其中第i类的样本共N个 Xi = (X1,X2,… XN)T 并且是独立从总体中抽取的 ③ Xi中的样本不包含 (i≠j)的信息,所以可以对每一 类样本独立进行处理。 ④ 第i类的待估参数 根据以上四条假定,我们下边就可以只利用第i类学习样 本来估计第i类的概率密度,其它类的概率密度由其它类 的学习样本来估计。 Gauss分布的参数由均值矢量μ和协方差矩阵Σ构成,最大似然估计结果为: 补充:一般过程原则: 第i类样本的类条件概率密度: P(Xi/ωi)= P(Xi/ωi﹒θi) = P(Xi/θi) 原属于i类的学习样本为Xi=(X1 , X2 ,…XN,)T i=1,2,…M 求θi的最大似然估计就是把P(Xi/θi)看成θi的函数,求 出使它最大时的θi值。 ∵学习样本独立从总体样本集中抽取的 ∴ N个学习样本出现概率的乘积 取对数 : 对θi求导,并令它为0: 有时上式是多解的, 上图有5个解,只有一个解最大即. 2. 多维正态分布情况 ∑已知, μ未知,估计μ 服从正态分布 所以在正态分布时 所以 这说明未知均值的最大似然估计正好是训练样本的算术 平均。 ② ∑, μ均未知 A. 一维情况:n=1对于每个学习样本只有一个特征的简单情况: (n=1)由上式得 即学习样本的算术平均 样本方差 讨论: 1.正态总体均值的最大似然估计即为学习样本的算术平均 2.正态总体方差的最大似然估计与样本的方差不同,当N较大的时候,二者的差别不大。 B.多维情况:n个特征 估计值: 结论:①μ的估计即为学习样本的算术平均 ②估计的协方

文档评论(0)

1亿VIP精品文档

相关文档