基于统计的汉语分词模型及实现方法.pdfVIP

基于统计的汉语分词模型及实现方法.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于统计的汉语分词模型及实现方法

第 18 卷第4 期          广西科学院学报          V o l 118, N o 14    2002 年 11 月      Jou rnal of Guangx i A cadem y of Sciences     N ovem ber 2002    基于统计的无词典分词方法 W ord Extraction without D ictionary Ba sed on Sta tistics  傅赛香         袁鼎荣    黄柏雄   钟 智  Fu Saix iang      Yuan D ingrong H uang Box iong Zhong Zh i ( 中国科学院计算技术研究所智能信息 (广西师范大学计算机科学系 处理开放实验室 北京 100080)  桂林 541004) (   ( , T he Key L abo rato ry of In telligen t D epartm en t of Com pu ter Science Info rm ation P rocessing , In stitu te of Guangx i N o rm al U n iversity , Gu ilin , 541004) , , , 100080) Com pu ting T echno logy CA S Beijing 摘要 通过分析词的结合模式, 提出无词典分词模型, 并对该模型进行实验测试。测试结果表 明, 无词典分词模型能够满足快速分词的要求。 关键词 自动分词 无词典分词 词条过滤 词条统计 中图法分类号  391 11 T P Abstract T he m ethod fo r ex tracting w o rds w ithou t dictionary based on statistics is discu ssed. T h ree p rincip les on w o rd filtering are p ropo sed by analyzing the . , com b ination m odels of w o rds T he m odel fo r w o rd ex traction is developed and . m eet the requ irem en t of rap id ex traction in the experim en ts   , , Key words au tom ated w o rd ex traction w o rd ex tracting w ithou t dictionary w o rd , filtering w o rd statistics   文档的自动分词一直是中文信息处理技术研究的热点和难点。汉语信息处理系统只要涉及 ( ) 句法、语义 如

文档评论(0)

yan698698 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档