《NLP_3》.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
《NLP_3》.pdf

语言模型 刘挺 哈工大信息检索研究室 2004年春 大纲 • 概述 • 参数估计 • 基本平滑算法 • 其它平滑算法 概述 噪声通道模型 • 原型 0,1,1,1,0,1,0,1 通道 0,1,1,0,0,1,1,0 输入 (增加噪声) 输出 • 模型:出错的概率 • 举例:p(0|1)=0.3, p(1|1)=0.7, p(1|0)=0.4, p(0|0)=0.6 • 任务是: – 已知带有噪声的输出 – 想知道输入是什么(也称为:Decoding) 噪声通道的应用 • OCR – 文本打印(引入噪声), 扫描图像 • 手写识别 – 文本神经肌肉(引入噪声), 扫描图像 • 语音识别 – 文本朗读(引入噪声) 声学波形 • 机器翻译 – 目标语言翻译(引入噪声) 源语言 • 其它:词性标注 – 词性序列选择词形文本 噪声通道:黄金规则 • 适用于OCR,手写识别,语音识别,机 器翻译,词性标注等各个问题 • 贝叶斯公式:P(A|B)=P(B|A)P(A)/P(B) • Abest=argmaxA P(B|A)P(A) • P(B|A)是声学/ 图像/翻译等模型 – 在不同领域用不同的术语来描述 • P(A)是语言模型 什么是语言模型(Language Model) • 语言模型是用来计算一个句子的概率的概率 模型 – 例如:P(w ,w ,…,w ) 1 2 n • 语言模型的用途 – 决定哪一个词序列的可能性更大 – 已知若干个词,预测下一个词 • 应用 – 语音识别 – 机器翻译 – 上下文敏感的拼写检查 应用于语音识别 • 有的词序列听起来很像,但并不都是正 确的句子 – 例子1: • I went to a party. √ • Eye went two a bar tea. – 例子2 : • 你现在在干什么?√ • 你西安载感什么? 应用于机器翻译 • 给定一个汉语句子 – 例如:王刚出现在电视上。 – 英文译文: • Wang Gang appeared in TV. • In Wang Gang appeared TV. • Wang Gang appeared on TV. √ 应用于拼写检查 • 举例 – 汉语 • 我自己知道√ • 我自已知道 – 英语 • Wang Gang appeared on TV. √ • Wang Gang appeared of TV. 参数估计 完美的语言模型 • 对于词序列W=w ,w ,…,w 1 2 n • 如何计算p(W) ? • 根据链式规则: p(W)=p(w )p(w |w )…p(w |w ,…,w )

文档评论(0)

wfkm + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档