- 1、本文档共102页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
模式识别课件 第三章最大似然估计和贝叶斯参数估计
Chapter 3: 最大似然估计和贝叶斯参数估计
要点:
• 重点掌握最大似然估计和贝叶斯参数估计的原理;
• 熟练掌握主成分分析和Fisher线性分析;
• 掌握隐马尔可夫模型;
• 了解维数问题;
• 3.1 引 言
贝叶斯框架下的数据收集
在以下条件下我们可以设计一个可选择的分类器:
P( ) (先验)
i
P(x | ) (类条件密度)
i
不幸的是,我们极少能够完整的得到这些信息!
从一个传统的样本中设计一个分类器
先验估计不成问题
对类条件密度的估计存在两个问题:1)样本对于
类条件估计太少了;2 )特征空间维数太大了,计
算复杂度太高。
如果可以将类条件密度参数化,则可以显著
降低难度。
例如:P(x | )的正态性
i
P(x | ) ~ N( , )
i i i
用两个参数表示
将概率密度估计问题转化为参数估计问题。
估计
最大似然估计(ML) 和贝叶斯估计;
结果通常很接近, 但是方法本质是不同的。
最大似然估计将参数看作是确定的量,只是其值是
未知! 通过最大化所观察的样本概率得到最优的参
数—用分析方法。
贝叶斯方法把参数当成服从某种先验概率分布的随
机变量,对样本进行观测的过程,就是把先验概率
密度转化成为后验概率密度,使得对于每个新样本,
后验概率密度函数在待估参数的真实值附近形成最
大尖峰。
在这两种方法中,我们都用后验概率P( | x)表示分
i
类准则!
• 3.2 最大似然估计
最大似然估计的优点:
当样本数目增加时,收敛性质会更好;
比其他可选择的技术更加简单。
3.2.1 基本原理
假设有c类样本,并且
1)每个样本集的样本都是独立同分布的随机变量;
2 )P(x | ) 形式已知但参数未知,例如P(x | ) ~ N( , );
j j j j
3 )记P(x | ) P (x | , ),其中
j j j
( , )
j j j
使用训练样本提供的信息估计
= ( , , …, ), 每个 (i = 1, 2, …, c) 只和每一
1 2 c i
类相关 。
假定D包括n个样本, x , x ,…, x
1 2 n
k n
P (D | ) P (xk | ) F ( )
k 1
P (D | ) 被称为样本集 D下的似然函数
的最大似然估计是通过定义最大化P(D | )的值 ˆ
“值与实际观察中的训练样本最相符”
2
文档评论(0)