- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
数学之美-江西师范大学计算机学院
数学之美 系列一 -- 统计语言模型
2006年4月3日 上午 08:15:00
从本周开始,我们将定期刊登 Google 科学家吴军写的《数学之美》系列文章,介绍数学在信息检索和自然语言处理中的主导作用和奇妙应用。发表者: 吴军, Google 研究员 前言也许大家不相信,数学是解决信息检索和自然语言处理的最好工具。它能非常清晰地描述这些领域的实际问题并且给出漂亮的解决办法。每当人们应用数学工具解决一个语言问题时,总会感叹数学之美。我们希望利用 Google 中文黑板报这块园地,介绍一些数学工具,以及我们是如何利用这些工具来开发 Google 产品的。系列一: 统计语言模型 (Statistical Language Models)Google 的使命是整合全球的信息,所以我们一直致力于研究如何让机器对信息、语言做最好的理解和处理。长期以来,人类一直梦想着能让机器代替人来翻译语言、识别语音、认识文字(不论是印刷体或手写体)和进行海量文献的自动检索,这就需要让机器理解语言。但是人类的语言可以说是信息里最复杂最动态的一部分。为了解决这个问题,人们容易想到的办法就是让机器模拟人类进行学习 - 学习人类的语法、分析语句等等。尤其是在乔姆斯基(Noam Chomsky 有史以来最伟大的语言学家)提出 “形式语言” 以后,人们更坚定了利用语法规则的办法进行文字处理的信念。遗憾的是,几十年过去了,在计算机处理语言领域,基于这个语法规则的方法几乎毫无突破。 其实早在几十年前,数学家兼信息论的祖师爷 HYPERLINK /search?hl=zh-CNnewwindow=1q=%E4%BF%A1%E6%81%AF%E8%AE%BA+%E9%A6%99%E5%86%9C+ClaudebtnG=%E6%90%9C%E7%B4%A2lr= \t _blank 香农 (Claude Shannon)就提出了用数学的办法处理自然语言的想法。遗憾的是当时的计算机条件根本无法满足大量信息处理的需要,所以他这个想法当时并没有被人们重视。七十年代初,有了大规模集成电路的快速计算机后,香农的梦想才得以实现。首先成功利用数学方法解决自然语言处理问题的是语音和语言处理大师贾里尼克 ( HYPERLINK /people/jelinek/ \t _blank Fred Jelinek)。当时贾里尼克在 IBM 公司做学术休假 (Sabbatical Leave),领导了一批杰出的科学家利用大型计算机来处理人类语言问题。统计语言模型就是在那个时候提出的。给大家举个例子:在很多涉及到自然语言处理的领域,如机器翻译、语音识别、印刷体或手写体识别、拼写纠错、汉字输入和文献查询中,我们都需要知道一个文字序列是否能构成一个大家能理解的句子,显示给使用者。对这个问题,我们可以用一个简单的统计模型来解决这个问题。如果 S 表示一连串特定顺序排列的词 w1, w2,…, wn ,换句话说,S 可以表示某一个由一连串特定顺序排练的词而组成的一个有意义的句子。现在,机器对语言的识别从某种角度来说,就是想知道S在文本中出现的可能性,也就是数学上所说的S 的概率用 P(S) 来表示。利用条件概率的公式,S 这个序列出现的概率等于每一个词出现的概率相乘,于是P(S) 可展开为:P(S) = P(w1)P(w2|w1)P(w3| w1 w2)…P(wn|w1 w2…wn-1)其中 P (w1) 表示第一个词w1 出现的概率;P (w2|w1) 是在已知第一个词的前提下,第二个词出现的概率;以次类推。不难看出,到了词wn,它的出现概率取决于它前面所有词。从计算上来看,各种可能性太多,无法实现。因此我们假定任意一个词wi的出现概率只同它前面的词 wi-1 有关(即马尔可夫假设),于是问题就变得很简单了。现在,S 出现的概率就变为:P(S) = P(w1)P(w2|w1)P(w3|w2)…P(wi|wi-1)…(当然,也可以假设一个词又前面N-1个词决定,模型稍微复杂些。)接下来的问题就是如何估计 P (wi|wi-1)。现在有了大量机读文本后,这个问题变得很简单,只要数一数这对词(wi-1,wi) 在统计的文本中出现了多少次,以及 wi-1 本身在同样的文本中前后相邻出现了多少次,然后用两个数一除就可以了,P(wi|wi-1) = P(wi-1,wi)/ P (wi-1)。也许很多人不相信用这么简单的数学模型能解决复杂的语音识别、机器翻译等问题。其实不光是常人,就连很多语言学家都曾质疑过这种方法的有效性,但事实证明,统计语言模型比任何已知的借助某种规则的解决方法都有效。比如在 Google 的 HYPERLINK /language_too
您可能关注的文档
- 改性生物酶驱油先导试验-断块油气田.PDF
- 改进型负压封闭引流技术治疗骨科复杂创面的临床效果分析.PDF
- 改进的EMD在齿轮箱故障诊断中的应用研究.PDF
- 改进的Kuo一Type积云对流参数化方案-中国气象局广州热带海洋.PDF
- 改进粒子群算法优化的IM模拟电路故障诊断-电子测量与仪器学报.PDF
- 改革环境监管制度促进全国统一场建设-中国社会科学院工业经济.PDF
- 放射诊疗许可注销-惠州卫生和计划生育局.DOC
- 政产学研融合—BIM落地创新及成本管控高峰论坛-广州工程勘察.DOC
- 政基础设施城病催生的新基建.PDF
- 故障讯息故障内容或注释故障讯息故障内容或注释-FujiXeroxOnline.PDF
最近下载
- 鱼粉的危险性鉴定 .pdf VIP
- 2024年贵州贵州省旅游产业发展集团有限公司招聘真题附答案详解(模拟题).docx VIP
- 2025年《提振消费专项行动方案》解读学习PPT课件.pdf
- 2024年贵州贵州省旅游产业发展集团有限公司招聘真题及答案详解(全优).docx VIP
- 学堂在线 工程伦理2.0 章节测试答案.docx VIP
- 中国华能集团公司《电力安全工作规程》(电气部分).pdf VIP
- 17GL603 综合管廊监控及报警系统设计与施工.docx VIP
- 职业生涯规划人物访谈报告.pdf VIP
- 四川大学大学生心理健康期末复习资料.doc VIP
- 经典儿歌歌词100首.pdf VIP
原创力文档


文档评论(0)