第一章:概率统计基础-先进人机通信技术联合实验室_8531.pptVIP

  • 1
  • 0
  • 约3.36千字
  • 约 44页
  • 2017-09-06 发布于重庆
  • 举报

第一章:概率统计基础-先进人机通信技术联合实验室_8531.ppt

Chp9:参数推断 本节课内容:计算似然的极大值 牛顿法 EM算法 极大似然估计 似然函数:令 为IID,其pdf为 ,似然函数定义为 log似然函数: 极大似然估计(MLE):使得 最大的 ,即 极大似然估计 计算MLE,需要求似然函数的极值 解析法(如本章已讲过的例子) 数值计算:通过迭代 牛顿法:简单 EM算法 迭代需要初始值,矩方法得到的结果是一个较好的初始值的选择 牛顿法 亦称牛顿-拉夫逊( Newton-Raphson )方法 牛顿在17世纪提出的一种近似求解方程的方法 使用函数 的泰勒级数的前面几项来寻找方程 的根 在MLE计算中,求 的根 对应处似然函数 取极值 牛顿法 将log似然函数的导数 在 处进行Taylor展开: 从而得到 因此迭代机制为: 牛顿法 当参数 包含多个参数为向量时,迭代机制为: 其中 为log似然函数 一阶偏导数(向量), 为二阶偏导数矩阵, EM算法 (Expectation Maximization) EM: Expectation Maximization 特别适合:“缺失数据”(missing data)问题中对参数用MLE求解 由于观测过程的限制或问题引起的数据缺失(如聚类问题) 直接对观测数据,似然函数极值解析不可求;但若假设缺失数据(隐含变量)的值已知,则似然函数形式很简单 EM算法 (Expectation Maximization) EM: Expectation Maximization E—步:求期望(Expectation ) 在给定观测数据的条件下,计算完整似然的期望(随机变量为隐含变量) 涉及计算缺失数据的条件期望,需要利用参数的当前估计值 M —步:求极大值( Maximization ) 求使得完整似然的期望最大的参数 又是一个极大值求解问题。通常可以解析求解,这时EM是一个很方便的工具;否则,需借助一个可靠的最大化方法求解 混合模型(Mixed Model) 混合模型: 其中 ,满足 即混合模型由K个成分组成,每个成分 的权重为 如一个班级每个学生的身高为 , 假设男生身高和女生分别服从高斯分布 、 则 其中p为男生的比例 混合模型的参数估计是EM算法最典型的应用 混合高斯模型 (Mixture of Gaussians Model,GMM) 若混合模型中每个成分为高斯分布, 则称为混合高斯模型 假设每个数据点根据如下规则产生: 随机选择一个成分,选择第k个成分的概率为 从第k个成分产生数据: 即 混合高斯模型 问题:给定IID数据 ,求参数 MLE不能解析求得,因此我们通过数值计算(如EM算法)求解。 将非完整数据 转换为完整数据 ,其中 为 所属的类别。 观测数据和缺失数据 观测数据:观测到随机变量X的IID样本: 缺失数据:未观测到的隐含变量Y的值: 在GMM中,若 来自第k个分成,则 完整数据:包含观测到的随机变量X和未观测到的随机变量Y的数据, 似然函数 给定观测数据 ,非完整数据的似然函数为: 涉及求和的log运算,计算困难 完整似然函数 若隐含变量的值 也已知,得到完整数据的似然函数为: 明显简化 EM—Expectation 由于Y是未知的,计算完整似然函数对Y求期望 去掉完整似然函数中的变量Y 定义 根据贝叶斯公式:Y的分布为 EM—Maximization 对E步计算得到的完整似然函数的期望 求极大值(Maximization),得到参数新的估计值,即 每次参数更新会增大似然(非完整似然)值 反复迭代后,会收敛到似然的局部极大值 EM的收敛性(1) EM的收敛性(2) 所以相邻两次似然之差为 EM的收敛性(3) 所以 其中 为KL散度。 所以: 如果Q增大,则观测数据的似然增大 在M步,Q肯定增大 当Q

文档评论(0)

1亿VIP精品文档

相关文档