- 2
- 0
- 约1.42万字
- 约 15页
- 2024-03-02 发布于上海
- 举报
向前-向后算法(forward-backwardalgorithm)
本文承接上篇博客《隐马尔可夫模型及的评估和解码问题》,用到的概念和例子都是那里面的。
学习问题
1 2 n在HMM模型中,已知隐藏状态的集合S,观察值的集合O,以及一个观察序列(o,o,...,o),求使得该观察序列出现的可能性最大的模型参数(包括初始状态概率矩阵π,状态转移矩阵A,发射矩阵B)。这正好就是EM算法要求解的问题:已知一系列的观察值X,在隐含变量Y未知的情况下求最佳参数θ*,使得:
1 2 n
在中文词性标注里,根据为训练语料,我们观察到了一系列的词(对应EM中的X),如果每个词的词性(即隐藏状态)也是知道的,那它就不需要用EM来求模型参数θ了,因为Y是已知的,不存在隐含变量了。当没有隐含变量时,直接用maximumlikelihood就可以把模型参数求出来。
预备知识
首先你得对下面的公式表示认同。以下都是针对相互独立的事件,P(A,B)=P(B|A)*P(A)
P(A,B,C)=P(C)*P(A,B|C)=P(A,C|B)*P(B)=P(B,C|A)*P(A)
P(A,B,C,D)=P(D)*P(A,B|D)*P(C|A)=P(D)*P(A,B|D)*P(C|B)P(A,B|C)=P(D1,A,B|C)+P(D2,A,B|C) D1,D2
您可能关注的文档
最近下载
- [五年高考]2014年-2015-2016-2017-2018年浙江省数学(文理)卷高考试题真题卷(含详细答案).docx VIP
- 2026江苏徐州地铁集团下属运营公司招聘笔试参考题库及答案解析.docx VIP
- 小学生防性侵教育.docx VIP
- 2024大模型崛起大模型崛起讲义.docx VIP
- 【创新设计】高一语文(语文版)必修1学案:陈情表.doc VIP
- 赵荣光与中国饮食文化.pdf VIP
- 公司优秀年轻干部挂职锻炼管理办法.doc VIP
- 污水厂有限空间作业专项施工方案.pdf VIP
- 【创新设计】高一语文语文版必修三学案:4.11 游褒禅山记 2 .doc VIP
- 国家体育总局事业单位招聘考试真题2024.docx VIP
原创力文档

文档评论(0)