中文分词搜索.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中文分词搜索

方法一:在nutch当中加入中文分词。这里我使用的IK_Analyzer 1、下载IKAnalyzer3.2.5Stable.jar。 2、需要修改org.apache.nutch.analysis包下面的NutchDocumentAnalyzer.java的tokenStream方法 ? 2.1 : 加入属性变量 -- private static Analyzer IK_ANALYZER; ? 2.2 : NutchDocumentAnalyzer 构造方法中 加入 : ???????? IK_ANALYZER = new IKAnalyzer(); ? 2.3 : 在 tokenStream 方法中加入 ???????? Analyzer analyzer; ??? ?analyzer = IK_ANALYZER; ???????? //以下几行代码必须加上 ??? ?TokenStream tokenStream = analyzer.tokenStream(fieldName, reader); ??? ?tokenStream.addAttribute(TypeAttribute.class); ??? ?tokenStream.addAttribute(FlagsAttribute.class); ??? ?tokenStream.addAttribute(PayloadAttribute.class); ??? ?tokenStream.addAttribute(PositionIncrementAttribute.class); ???????? //如果不加,在search的时候报错,错误如下: ? Exception in thread main java.lang.IllegalArgumentException: This AttributeSource does not have the attribute???? org.apache.lucene.analysis.tokenattributes.TypeAttribute. ? 2.4 : 在这个包下找到org.apache.nutch.analysis.NutchAnalysis.jj ???????? 将SIGRAM: CJK 替换为 SIGRAM: (CJK)+ ???????? 然后使用javacc工具编译,可以得到7个**.java文件,把这些文件覆盖这个包下面文件。 ? 2.5 : 编译src/build.xml ???????? 加入 include name=IKAnalyzer3.2.5Stable.jar/ 3、根目录下 ant.搜索引擎需要的就是数据,抓取海量数据、然后存储、分析、建立索引、计算,最终根据用户需求快速检索出结果。存储分析和建立索引的过程开源项目中有个Hadoop是不二之选。这里分析的不是hadoop,而是搜索引擎中最后一步,也是至关重要的一步:中文分词。因为程序员基本是写java为主,故在考虑搜索引擎时,就采用了搜索领域影响颇深的基于纯java语言开发的Nutch搜索引擎。搜索引擎处理英文文档时,几乎不需要特殊的加工处理,英文文档本身就是以词为单位的组织,词个词之间是靠空格或标点符号显式地表示词的边界。我们采用的庖丁解牛正是为中文的分词提供了技术基础。首先,用wget下载了细胞词库,哇,太棒了,数据大的惊人。加上paoding自带的22M词库,基本可以满足我们词典库。 第一步是建立两个文件,在nutch目录的src/plugin目录下建立两个文件夹分别命名为analysis-zh,lib-paoding-analyzers。然后在这两个文件夹下建立plugin.xml和build.xml。 analysis-zh文件夹下plugin.xml内容如下: ?xml version=1.0 encoding=UTF-8? plugin id=analysis-zh name=Chinese Analysis Plug-in version=1.0.0 provider-name=net.paoding.analysis runtime library name=analysis-zh.jar export name=*/ /library /runtime requires import plugin=nutch-extensionpoints/ import plugin=lib-paoding-analyzers/ /requires extension id=org.apache.nutch.analysis.zh name=Chinese Analyzer poin

文档评论(0)

qwd513620855 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档