统计机器学习(陈明)myi2ml2e-chap4-v.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

INTRODUCTIONTO

MachineLearning

2ndEditionETHEMALPAYDIN?TheMITPress,2010.tr/~ethem/i2ml2eLectureSlidesfor

CHAPTER4:

ParametricMethods

之前讨论了在不确定环境下,如何利用概率建模以做出足有决策。现在我们来估计这些概率。1本章讨论参数化方法:假定概率模型由少数几个参数确定。2本章还引入了偏倚和方差。3为平衡复杂度和经验误差,引入了模型选择方法。4假定x为一元的。5

4.1IntroductionLectureNotesforEAlpayd?n2010IntroductiontoMachineLearning2e?TheMITPress(V1.0)4假定数据X={xt}t服从某个分布xt~p(x)参数化方法:假定样本从某个已知模型中抽取,该模型由的一些参数确定,例如p(x|q)服从N(μ,σ2),统计量q={μ,σ2}通过估计这些统计量,得出分布将估计出的分布p(x),p(ci),p(ci|x)用于决策如何估计q?极大似然估计MLE:不考虑q的先验知识最大后验估计MAP:考虑q的先验知识贝叶斯估计:将q视为随机变量,求后验期望

4.2MaximumLikelihoodEstimationLikelihoodofqgiventhesampleX(IID)l(θ|X)=p(X|θ)=∏tp(xt|θ)Loglikelihood与likelihood在同一位置取极大值L(θ|X)=logl(θ|X)=∑tlogp(xt|θ)Maximumlikelihoodestimator(MLE)θ*=argmaxθL(θ|X)

Examples

最大似然估计的求解过程

Examples:Bernoulli/MultinomialP(x)=pox(1–po)(1–x)L(po|X)=log∏tpoxt(1–po)(1–xt)MLE:po=∑txt/NBernoulli:Twostates,failure/success,xin{0,1}01P(x1,x2,...,xK)=∏ipixiL(p1,p2,...,pK|X)=log∏t∏ipixitMLE:pi=∑txit/N(第i类样本的数目的比率)Multinomial:K2states,xiin{0,1}02

LectureNotesforEAlpayd?n2010IntroductiontoMachineLearning2e?TheMITPress(V1.0)Gaussian(Normal)Distribution

(patternrecognitionp36)p(x)=N(μ,σ2) MLEforμandσ2:11μσ

方差的估计(参考计算过程)

多元正态分布

(patternrecognitionp37)

参考计算过程

混合高斯模型(GMM)

(MixtureofGaussiansModel)假设有K个成分每个成分从均值为、协方差矩阵为的高斯分布产生数据假设每个数据点根据如下规则产生:随机选择一个成分,选择第k个成分的概率为从第k个成分产生数据:即

问题:给定IID数据,求参数MLE不能解析求得,因此我们通过数值计算(如EM算法)求解。将完整数据转换为非完整数据/缺失数据,其中为所属的类别。010302混合高斯模型

01第t次的估计为则第t+1次的估计为02E步03M步EMforGMM

对似然函数求最大值对似然函数求极值(求导)解析法(如上例中的高斯模型)数值计算:优化算法如梯度下降法如EM算法:EM会收敛到局部极值,但不保证收敛到全局最优启发式算法:GA等需注意的问题:要找到似然函数的全局极大值一阶导数为0只是必要条件,非充分条件而且一阶导数为0只能找到函数定义域内部的局部极值点。如在边界上取极值,一阶导数可能不为0。因此还必须检验边界。

补充材料MLE与MAP

MaximumaPosteriori(MAP)θMAP=argmaxθp(θ|X)Treatθasarandomvarwithpriorp(θ)Ba

文档评论(0)

SYWL2019 + 关注
官方认证
文档贡献者

权威、专业、丰富

认证主体四川尚阅网络信息科技有限公司
IP属地四川
统一社会信用代码/组织机构代码
91510100MA6716HC2Y

1亿VIP精品文档

相关文档