- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
语言模型的基本概念
本文介绍一下有关语言模型的基本概念,但是在介绍语言模型Z前,先简单回顾一下 自然语言处理这个大问题吧。现在自然语言处理的研究绝对是一个非常火热的方向,主要 是被当前的互联网发展所带动起来的。在互联网上充斥着大量的信息,主要是文字方而的 信息,对这些信息的处理离不开自然语言处理的技术。那么究竟什么是自然语言以及自然 语言处理呢?
自然语言处理的基本任务
自然语言(Natural Language)其实就是人类语言,自然语言处理(NLP)就是对人类 语言的处理,当然主要是利用计算机。自然语言处理是关于计算机科学和语言学的交叉学 科,常见的研究任务包括:
分词(Word Segmentation 或 Word Breaker, WB)
信息抽取(Information Extraction, IE):命名实体识别和关系抽取(Named Entity Recognition Relation Extraction, NER)
词性标注(Part Of Speech Tagging, POS)
指代消解(Coreference Resolution)
句法分析(Parsing)
词义消歧(Word Sense Disambiguation, WSD)
语音识别(Speech Recognition)
语音合成(Text To Speech, TTS)
机器翻译(Machine Translation, MT)
自动文摘(AutomaticSummarization)
问答系统(QuestionAnswering)
自然语言理解(Natural Language Understanding)
OCR
信息检索(Information Retrieval, IR)
早期的自然语言处理系统主耍是基于人工撰写的规则,这种方法费时费力,且不能覆 盖各种语言现象。上个世纪80年代后期,机器学习算法被引入到自然语言处理中,这要 归功于不断提高的计算能力。研究主要集中在统计模型上,这种方法采用大规模的训练语 料(corpus)对模型的参数进行自动的学习,和之前的基于规则的方法相比,这种方法更 具鲁棒性。
统计语言模型
统讣语言模型(Statistical Language Model)就是在这样的环境和背景下被提出来的。 它广泛应用于各种自然语言处理问题,如语音识别、机器翻译、分词、词性标注,等等。 简单地说,语言模型就是用来计算一个句子的概率的模型,即P(%,“2,利用语 言模型,可以确定哪个词序列的可能性更大,或者给定若干个词,可以预测下一个最可能
出现的词语。举个音字转换的例子来说,输入拼音串为nixianzaiganshenme,对应的输出 可以有多种形式,如你现在干什么、你西安再赶什么、等等,那么到底哪个才是正确的转 换结果呢,利用语言模型,我们知道前者的概率大于后者,因此转换成前者在多数情况下 比较合理。再举一个机器翻译的例子,给定一个汉语句子为李明正在家里看电视,可以翻 译为 Li Ming is watching TV at home Li Ming at home is watching 7V、等等,同样根据语言 模型,我们知道前者的概率大于后者,所以翻译成前者比较合理。
那么如何计算一个句子的概率呢?给定句子(词语序列)S = ”1,“2,…,叭,它的概 率可以表示为:
P(S) = P(Wlf W2,…,叭)=W1) ... “2,…,(1)
由于上式中的参数过多,因此需要近似的计算方法。常见的方法有n-gram模型方法、 决策树方法、最人谪模型方法、最大懦马尔科夫模型方法、条件随机域方法、神经网络方 法,等等。
n-gram语言模型
n-gram模型的概念
n-gram模型也称为n-1阶马尔科夫模型,它有一个有限历史假设:当前词的出现概率 仅仅与前面个词相关。因此⑴式可以近似为:
P(S) = P(W1,W2l...fWk) = n?=1PW|l¥t-_n+1,…,MJ (2)
当n取1 2 3时,n-gram模型分别称为unigram、bigram和trigram语言模型。n- gram模型的参数就是条件概率卩(叱|必_?+1,…,叱-1)。假设词表的大小为100,000,那么 n-gram模型的参数数量为100,000= n越大,模型越准确,也越复杂,需要的计算量越大。 最常用的是bigram,其次是unigram和trigram, n取24的情况较少。
n-gram模型的参数估计
模型的参数估计也称为模型的训练,一般采用最大似然估计(Maximum Likelihood Estimation, MLE)的方法对模型的参数进行估计:
P(叱= C(l¥t_n+1,…,叱_i,Wi)/C(i_n+i,??
原创力文档


文档评论(0)