[计算机]基于Lucene的中文字典分词模块.pptVIP

[计算机]基于Lucene的中文字典分词模块.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[计算机]基于Lucene的中文字典分词模块

基于Lucene的中文字典分词模块 的设计与实现 信安041 温珊珊 基于Lucene的中文字典分词模块的设计与实现 中文分词的研究背景及现状 网络资源爆炸性增长,搜索引擎技术发展迅速 中文分词的研究现状 中文分词面临的问题 中文分词的研究内容 语言是一个开放集,它的词条始终是处于不断的增长中,所以很难有一个完善的词典来描述它,可能这个词在今天不是词,在将来就被认定为一个词了。这就告诉我们,词典的完备性始终是我们研究中文分词必须考虑的一个问题。 本课题的研究意义 由于Lucene支持的中文文本分词仅限于单字区分和双字区分两种方式,不能满足大多数中文文本信息检索技术的需求,所以在一定程度上限制了它在中国的应用和开发。因此Lucene加入中文分词的功能,对于Lucene在中国的广泛应用和发展将会起到很大的推动作用 基于Lucene的中文字典分词模块的设计与实现 本设计完成的功能: 中文文本分词的一般过程 基于Lucene的中文字典分词模块的设计与实现 双字哈希词典机制 双字哈希词典机制 基于Lucene的中文字典分词模块的设计与实现 基于Lucene的中文字典分词模块的设计与实现 3.对文本进行初步的分词 4 歧义识别——对结果的进一步处理 对结果的纠错功能实现过程 5.新词识别 新词识别 基于Lucene的中文字典分词模块的设计与实现 5.将系统封装成Lucene分析器,建立索引 系统设计界面和功能展示 系统设计界面和功能展示 系统设计界面和功能展示 对本文工作的总结 总结 总结 致谢 在我的毕业设计即将完成之际,我想感谢所有在毕设过程中帮助指导我的老师和同学们。感谢程老师,在整个设计过程中都给予了高度的关注和悉心的指导。感谢各位答辩组的老师,感谢郭师兄,还有我的同学孙琳,谢谢你们给了我最无私的帮助,谢谢。 Company name LOGO 1.中文分词的研究背景及现状 3.分词模块的设计与实现 4.对本文工作的总结 2.中文分词的研究内容和意义 2008年6月21日 2008年6月21日 全文搜索引擎包Lucene在许多搜索引擎技术项目中得到了广泛且深入的应用和研究 中文分词技术成为计算机信息检索、自然语言理解、人工智能、机器翻译和自动文摘等领域突破的关键多种技术发展的瓶颈 从70年代我国情报检索界从事到中文信息检索领域的研究开始,一直有大量学者致力于中文自动分词研究,至今已获得许多可喜的成果,出现了一些实用的自动分词系统。这些系统在分词的精确度和分词速度方面都具有相当的水平,但是仍然需要进一步的研究。 2008年6月21日 计算机难以正确理解并分析中文文本 2008年6月21日 2008年6月21日 汉语自然语言处理的应用系统处理对象越来越多的是大规模语料,因此分词的速度和分词算法的易实现性变得相当关键。 词典规模、词典查找速度、切分预处理方式、切分排歧方式、未登录词处理、词性标注等方面在前人的基础上做进一步的改善 设计词典结构,读入词库文件,初始化词典结构 对文本预处理,使用最大正向匹配算法初步分词 设计实现双向匹配算法,对结果进行基于规则的选择,实 现系统纠错功能 对分词后的结果产生的碎片进行概率统计,识别文本中的未登陆词 将分词系统封装成Lucene分析器,并使用索引器建立索引,实现系统检索功能 2008年6月21日 更新词典 词典初始化 输入分词文本,对文本预处理 对文本进行初步的划分 消歧和未登陆词识别 中文词典 保存结果 2008年6月21日 1词典建立 词典是汉语自动分词的基础,分词词典机制的优劣直接影响到中文分词的速度和效率。 2008年6月21日 1 基于整词二分的分词词典机制 2 基于TRIE索引树的分词词典机制 3 基于逐字二分的分词词典机制 为了使分词系统在具有较高的分词效率的同时,维护和更新词典也相对简单,本研究采用了一种新的词典机制来建立词典——双字哈希词典机制。。 2008年6月21日 2008年6月21日 预处理,利用特殊的标记(0xa1)将输入的中文文本分割成较短的汉字串,汉字串以中文空格分开,简化分词算法要处理的特殊情况,这些标记包括所有的标点符号,例如:“,”、“。”等等。由于本研究同时考虑到了对英文文本和数字的处理,所以,也将英文单词,数字等作为标记来分割中文文本。 2.对文本进行预处理 2008年6月21日 本分词系统选用机械分词算法中的最大匹配算法作为中文分词算法,具体实现就是对于字符串s,从前到后扫描,对扫描的每个字,从词表中寻找最长匹配 。 2008年6月21日 最大正向匹配算法 最大逆向匹配算法 基于Lucene的中文字典分词模块的设计与实现 2008年

文档评论(0)

qiwqpu54 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档