向前向后算法.docxVIP

  • 2
  • 0
  • 约1.42万字
  • 约 15页
  • 2024-03-02 发布于上海
  • 举报

向前-向后算法(forward-backwardalgorithm)

本文承接上篇博客《隐马尔可夫模型及的评估和解码问题》,用到的概念和例子都是那里面的。

学习问题

1 2 n在HMM模型中,已知隐藏状态的集合S,观察值的集合O,以及一个观察序列(o,o,...,o),求使得该观察序列出现的可能性最大的模型参数(包括初始状态概率矩阵π,状态转移矩阵A,发射矩阵B)。这正好就是EM算法要求解的问题:已知一系列的观察值X,在隐含变量Y未知的情况下求最佳参数θ*,使得:

1 2 n

在中文词性标注里,根据为训练语料,我们观察到了一系列的词(对应EM中的X),如果每个词的词性(即隐藏状态)也是知道的,那它就不需要用EM来求模型参数θ了,因为Y是已知的,不存在隐含变量了。当没有隐含变量时,直接用maximumlikelihood就可以把模型参数求出来。

预备知识

首先你得对下面的公式表示认同。以下都是针对相互独立的事件,P(A,B)=P(B|A)*P(A)

P(A,B,C)=P(C)*P(A,B|C)=P(A,C|B)*P(B)=P(B,C|A)*P(A)

P(A,B,C,D)=P(D)*P(A,B|D)*P(C|A)=P(D)*P(A,B|D)*P(C|B)P(A,B|C)=P(D1,A,B|C)+P(D2,A,B|C) D1,D2

文档评论(0)

1亿VIP精品文档

相关文档