基于字的分词方法的实验的研究.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于字的分词方法的实验研究1 陈晓1靳光瑾1黄昌宁2 100080 教育部语用所1100010微软亚洲研究院2 摘要:本文采用了目前汉语分词领域中—种优秀的分词方法——基于字的分词方法,通过实验的方式量化地探讨 了在这一方法中不同的特征模板对于词表词和未登录词识别所起的作用。结果显示,各种特征模板大的添加可以 在一定程度上提高分词精度,但是在这—分词方法中起决定作用的仍然是上下文中的词例信息。 关键词:中文信息处理,分词 An word researchofcharacter-basedChinese experimental segmentation ChenXia01 Jin GuangjinlHuangChangnin92 Institute 100010MicrosoftResea尬..hAsiaz100080 ofAppikdLinguisticsl E-mail:妒棚∞@126.姗,伊m西砣000@163∞m,锄hu锄勘瓤曲证乱嘴嘲吐.microsoft.corn series word Al晦trm:t:Thisshowsa of chamoter-basedChkIese paper expefimentsusing segmentationqsprvo曲.we孵 resultshaveshowntl$ 仃,,hgtoilhstra协d鼬Ictd南cti砌e龉ofvariousfmmrctemplatesapplied(311diffenmt∞《pus.The thatd帕sef-删uretemplatescon幻SOmOmamtaffectthe isoorllggIinformation. iafomaatim word Chincsc 硒卵∞m:Chinose tnocesshg segmmtatioa. 1.汉语的分词问题 分词是中文信息处理的第一个步骤。与英语等其他一些语言不同,汉语文本中词与词之间 没有明显的分隔标记,所以汉语文本通常是汉字的序列。现代汉语中语法语义知识—般都是以 “词”为基本的语法和意义单位,因此,以分析理解中文文本为目的的中文信息处理需要首先将 中文文.本中的“词”识别出来。 中文文本自动分词经过多年的研究取得了一定的成果,但是其精度还不能满足一些离端应 用的需求。中文自动分词的难点何在?[1]认为:中文自动分词的困难不在于中文文本本身缺乏 天然的分隔符,因为,如果在汉字全集中存在两个互不相交的子集,其中一个子集中所有的汉字 只能作为汉语词的首字,而另一个子集中所有的汉字只能作为汉语词的末字,那么汉语文本中的 词就可以自动的被区分开来。但是,事实上在汉字集合中不存在这样两个子集。也就是说汉字在 词中出现的位置是不确定的,汉字在词中出现位置的这种不确定性使得划分汉语词的边界时常会 1本文得到国家重点基础研究发展规划(973计划)项目一“中文语料库建设”子课题“基于语料库的 数据挖掘等应用研究”的资助。 52 出现歧义,这些歧义是汉语分词的难点之一。[5]基于微软语料库的统计量化的指出了这一问题。 约四分之一的汉字出现在词头、词中、词尾的概率基本相同。 of

文档评论(0)

whl005 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档