分词及词性标注.docxVIP

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
分词及词性标注在英文中,计算机能够利用词语之间的空格来辨别每一个单词词语,但是由连续中文文本组成的汉语序列,因为其词和词之间没有任何标识来进行划分,所以计算机无法方便的直接进行分词处理。然而计算机在对语句进行处理分析的时,由于对其的处理全部是以词语作为基本语言单位的,所以对语句进行分词处理从而成为离散的词语序列便是专利设计目标提取首先要完成的内容。面向中文语句的分词的研究在目前已经提出了十余种中文分词方法,并成功研发了若干个相关的系统组件,目前基本可以将这些方法分为以词典为基础的方法和以知识规则为基础的方法这两个类别,以词典为基础的学习方法的代表有基于最大熵的方法、基于隐马尔科夫模型的方法等,以知识规则为基础的学习方法的代表有 N-最短路径方法、最少切分法和最大匹配算法等。上述这些算法都有自己的不足之处,其中现阶段面临的问题大致有两个,其一是对未登录词识别的问题,这些词没有被中文分词词典收录,所以当这些专业词汇在词法分析时,它们的识别率通常较低,往往不会被切分出来,从而造成错误的出现;其二是歧义切分的问题,是指如果依照不同的切分方法,那么即使是切分同一个语句,最后切分出的结果也会不同。在对专利进行文本挖掘之前,需要对专利的标题和摘要数据进行切分成词序列,这是做文本挖掘工作的开始。目前,开源中文分词工具有很多,如张华平博士团队开发的NLPIR系统(C、Python、Java),哈王大的LTP语言平台(C++、Python),还有R语言的分词包等,送些分词工具都各具特色,本文在此受篇幅所限不做巧细介绍。本文采用结巴分词算法,其主要原因是它处理速度快,分词准确,并带有新词发现、词性标注功能。同时该算法功能可以通过加载包的形式,加载进Python中,便于统一编程实现。该分词算法分词流程如下:以下程序实现了对评论句子进行的分词过程,同时进行了词性标注。词性标注的目的是给句子中的所有词确定一种词性分类。词性类别包括形容词(/a)、动词(/v)、名词(/n)、动名词(/vn)、副词(/d)等等。对句子进行词性的标注在接下来的句法分析和信息抽取中扮演着尤其关键的作用。本文的词性标注过程采用结巴分词算法,如前所述,在结巴分词的过程中posseg自带词性标注功能。词性标注的部分结果展示如下图。

您可能关注的文档

文档评论(0)

qtrt148 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档