- 1
- 0
- 约8.56千字
- 约 9页
- 2017-03-04 发布于四川
- 举报
搜索引擎中文分词原理与实现
因为中文文本中,词和词之间不像英文一样存在边界,所以中文分词是一个专业处理中文信息的搜索引擎首先面对的问题,需要靠程序来切分出词。
一、Lucene中的中文分词
????????Lucene在中处理中文的常用方法有三种,以“咬死猎人的狗”为例说明之:
????? ? 单 ? ? ?字:【咬】 【死】 【猎】 【人】 【的】 【狗】
????? ? 二元覆盖:【咬死】 【死猎】 【猎人】 【人的】 【的狗】
????? ? 分 ? ? ?词:【咬】 【死】 【猎人】 【的】 【狗】
????????Lucene中的StandardTokenizer采用单子分词方式,CJKTokenizer采用二元覆盖方式。
1、Lucene切分原理
????????Lucene中负责语言处理的部分在 org.apache.lucene.analysis包,其中,TokenStream类用来进行基本的分词工作,Analyzer类是 TokenStream的包装类,负责整个解析工作,Analyzer类接收整段文本,解析出有意义的词语。
????? ? 通常不需要直接调用分词的处理类analysis,而是由Lucene内存内部来调用,其中:
????? ? (1)在索引阶段,调用addDocument(doc)时,Lucene内部使用Analyzer来处理每个需要索引的列,具体
您可能关注的文档
最近下载
- 2026年版-心力衰竭诊断和治疗指南解读与总结2026-新版课件.pptx
- 武汉市2026届高三年级四月供题(武汉四调)数学+答案.docx
- 森林疗愈培训课件.pptx VIP
- 云南省楚雄彝族自治州2024-2025学年五年级下册期末考试语文试卷(有答案).pdf VIP
- CN112457205A 一种从麻黄草中提取麻黄碱的方法 (北京亚东生物制药有限公司).pdf VIP
- 低血糖症护理常规 (2).pptx VIP
- REX温控器_-_REX-C700_实用文档.doc VIP
- 2026中国南方电网校园(土木类)训练题及答案.docx VIP
- 疗愈时光音乐.pptx VIP
- 北京市东城区2025-2026学年高二上学期期末考试政治试卷含答案.docx
原创力文档

文档评论(0)