网站大量收购闲置独家精品文档,联系QQ:2885784924

HMM学习问题课件.pdf

  1. 1、本文档共25页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
HMM学习问题课件.pdf

HMM学习最佳范例 前向-后向算法 根据观察序列生成隐马尔科夫模型。 评估(前向算法):它被用来测量一个模型的相对适用性 解码(维特比算法):它被用来推测模型隐藏的部分在做什么(“到底 发生了”什么)。 在许多实际问题的情况下这些参数都不能直接计算的,而要需要进行估 计——这就是隐马尔科夫模型中的学习问题。 前向-后向算法:以一个观察序列为基础来进行这样的估计,而这个观 察序列来自于一个给定的集合,它所代表的是一个隐马尔科夫模型中的 一个已知的隐藏集合。 2 前向-后向算法 名称由来:因为对于网格中的每一个状态,它既计算到达此状态的“前 向”概率(给定当前模型的近似估计),又计算生成此模型最 终状态 的“后向”概率(给定当前模型的近似估计)。 首先了解:后向算法和EM算法。 前向-后向算法是EM算法的一个特例。 前向-后向算法是Baum于1972年提出来的,又称之为Baum-Welch算法。 3 后向算法 前向算法:局部概率at(i),称其为前向变量。 后向算法:定义一个后向变量Bt(i): 后向变量(局部概率)表示的是已知隐马尔科夫模型 及t时刻位于隐藏 状态Si这一事实的概率。从后向前(故称之为后向算法)递归地计算后 向变量: 1)初始化,令t=T时刻所有状态的后向变量为1: 2)归纳,递归计算每个时间点,t=T-1,T-2,…,1时的后向变量: 4 后向算法 这样我们就计算出每个时间点上所有的隐藏状态所对应的后向变量。 t+1时刻与t时刻的后向变量之间的关系: 5 后向算法程序 6 EM算法 EM 算法是 Dempster,Laind,Rubin 于 1977 年提出的求参数极 大似然估计的一种方法,它可以从非完整数据集中对参数进行MLE(最大 似然估计)估计,是一种非常简单实用的学习算法。 这种方法可以广泛地应用于处理缺损数据,截尾数据,带有讨厌数 据等所谓的不完全数据(incomplete data)。 EM算法包括两个步骤:由E步和M步组成,通过交替使用这两个步骤,EM 算法逐步改进模型的参数的似然概率逐渐增大,最后终止于一个极大点。 7 EM算法 直观理解EM算法: 它也可被看作为一个逐次逼近算法:1、事先并不知道模型的参数, 可以随机的选择一套参数或者事先粗略地给定某个初始参数λ0 ,确定 出对应于这组参数的最可能的状态; 2、计算每个训练样本的可能结果的概率,在当前的状态下再由样 本对参数修正,重新估计参数λ,并在新的参数下重新确定模型的状 态; 3、这样,通过多次的迭代,循环直至某个收敛条件满足为止,就 可以使得模型的参数逐渐逼近真实参数。 8 前向-后向算法:局部最优 给定观察序列O及隐马尔科夫模型λ,定义t时刻位于隐藏状态Si的概率 变量为: 上式用前向、后向变量如下: 其中分母的作用是确保: 9 前向-后向算法 给定观察序列O及隐马尔科夫模型λ,定义t时刻位于隐藏状态Si及t+1 时刻位于隐藏状态Sj的概率变量为: 该变量在网格中所代表的关系如下图所示: 10 前向-后向算法 该向量由前向、后向变量表示: 而上述定义的两个变量间也存在着如下关系:

文档评论(0)

tangtianxu1 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档