- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第三章 概率密度函数的估计 (Probability Density Function, PDF) 李小霞 西南科技大学信息工程学院 目 录 3.1 引言 3.2 参数估计(ML,贝叶斯估计) 3.3 非参数估计(Parzen窗,KN近邻法) 问题的提出 参数估计:假定某种数学模型,再用训练样本估计模型的未知参数。 最大似然估计(Maximum Likelihood, ML) 贝叶斯估计 非参数估计:不用模型,利用训练样本直接估计PDF。 Parzen窗法 kN近邻法 目 录 3.1 引言 3.2 参数估计(ML,贝叶斯估计) 3.3 非参数估计(Parzen窗,KN近邻法) 参数估计 给定某类训练数据样本x1, x2, …xN; 假设已知 x 所服从的分布形式,待估计的参数为θ。 例如,x~N(μ,∑),待估参数是θ= ? 为了描述 p(x) 与参数θ的依赖关系,用 p(x |θ) 表示。 最大似然估计 ML估计就是根据已经抽取的n个样本,来估计这组样本“最可能” 来自哪个密度函数(“最似”)。 随机变量 x 服从均匀分布 正态分布下的最大似然参数估计 方差估计 ∑是N个矩阵 的算术平均 例 正态分布假设下的 MAP 估计 x ~ N(μ,σ2) μ ~ N(μ0,σ02) MAP估计把θ看作随机变量,ML估计的参数θ是确定的未知量(固定值); 当 p(θ) 比较准确,MAP估计的小样本性质优于ML估计; MAP?ML,当 N?∞; MAP?ML,σ0σ,p(θ) 服从均匀分布。 MAP估计 实际工作中处理的大都是高维数据: d ≥ 10 统计学中经典的多元(高维)分布很少,研究得最详尽的是多元正态分布。 近几十年的研究发现,实际所处理的高维数据几乎都不服从正态分布。 通过增加模型的复杂程度(参数的个数),如正态模型的线性组合—高斯混合模型,试图“逼近”真实的分布,出现了过拟合问题。 目 录 3.1 引言 3.2 参数估计(ML,贝叶斯估计) 3.3 非参数估计(Parzen窗,KN近邻法) 3.3 非参数估计 非参数估计不做任何模型假设 两种主要方法 直方图法 核方法 直方图法: 用直方图逼近概率密度函数 模式识别中常用的两种核方法 Parzen窗法: 区域体积VN ,窗固定 kN -近邻法:近邻样本数kN ,固定 两种常用的核函数 正态(高斯)核 Parzen窗法 均匀核函数Parzen窗估计的几何意义 点 x 处概率密度= 窗宽的选择 保证依概率渐进收敛到真实的概率密度 Parzen Windows function x=-2:0.01:2; N=256; hn=1/(N^0.5); L=length(x); px=zeros(1,L); for i=1:L s=x(i); px(i)=fu(s); end 不同窗宽的估计效果 h 越小,方差越大 N 越大,精度越高 不同维数达到相同估计精度所需的样本数 Parzen窗估计的优缺点 优点:简单,通用性强,不需要先验分布信息。 缺点:与参数估计方法相比,为了得到精确的估计结果,需要更多的训练样本,难以避免“维数灾难”问题,且时间和存储器开销都大得惊人。 解决维数灾难的有效方法:尽可能多地利用模式数据本身的先验知识。 kN—近邻估计 一个kN—近邻估计例子 kN的选择 kN 根据样本总数N选择 渐进收敛容易保证; 有限样本性质、最小平方误差与Parzen窗几乎相同。 讨论 高维概率分布的估计无论在理论上还是实际操作中都是一个十分困难的问题。 概率密度函数包含了随机变量的全部信息,是导致估计困难的重要原因。 进行模式识别并不需要利用概率密度的所有信息,只需要求出分类面。先估计概率密度,再进行分类,可能走了“弯路”。 参考文献 [1] Richard O. Duda, Peter E. Hart, David G. Stork, Pattern Classification, 2nd Edition, John Wiley Sons, Inc. 2001. [2] [希腊]Sergios Theodoridis,李晶皎译,模式识别(第3版),电子工业出版社,2006年12月 [3] K. Fukunaga, Introduction to Statistical Pattern Recognition. 2nd Edition, Academic Press, 1990.附录:矩阵微分的常用公式 思考题 概率密度函数的估计的参数估计包括哪两种主要的方法?简述各自的原理,什么情况下两种估计结果相近。 概率密度函数的估计的非参数估计包括
您可能关注的文档
最近下载
- 最新初中地理新课程标准考试题七套(含答案).docx VIP
- 掺镱光纤预制棒、掺镱有源光纤及其制备方法.pdf VIP
- 2025年辽宁省事业单位招聘考试公共基础知识考试试题库及一套完整答案详解.docx VIP
- 人教版四年级上册数学第三单元《角的度量》测试卷推荐.docx VIP
- 党志愿书空白表格.doc VIP
- 强直性脊柱炎的护理查房PPT课件.pptx VIP
- 项目提成管理制度.docx VIP
- 2025中国南水北调集团新能源投资有限公司第二批社会招聘笔试备考题库及答案解析.docx VIP
- 新外研版高中英语选择性必修2Unit5课文翻译.pdf VIP
- 广西示范性高中2024-2025学年高二上学期期中调研测试数学试题(解析版).docx VIP
文档评论(0)