- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中文分词搜索
方法一:在nutch当中加入中文分词。这里我使用的IK_Analyzer1、下载IKAnalyzer3.2.5Stable.jar。2、需要修改org.apache.nutch.analysis包下面的NutchDocumentAnalyzer.java的tokenStream方法? 2.1 : 加入属性变量 -- private static Analyzer IK_ANALYZER;? 2.2 : NutchDocumentAnalyzer 构造方法中 加入 :???????? IK_ANALYZER = new IKAnalyzer();? 2.3 : 在 tokenStream 方法中加入???????? Analyzer analyzer;??? ?analyzer = IK_ANALYZER;???????? //以下几行代码必须加上??? ?TokenStream tokenStream = analyzer.tokenStream(fieldName, reader);??? ?tokenStream.addAttribute(TypeAttribute.class);??? ?tokenStream.addAttribute(FlagsAttribute.class);??? ?tokenStream.addAttribute(PayloadAttribute.class);??? ?tokenStream.addAttribute(PositionIncrementAttribute.class);???????? //如果不加,在search的时候报错,错误如下:? Exception in thread main java.lang.IllegalArgumentException: This AttributeSource does not have the attribute???? org.apache.lucene.analysis.tokenattributes.TypeAttribute. ? 2.4 : 在这个包下找到org.apache.nutch.analysis.NutchAnalysis.jj???????? 将SIGRAM: CJK 替换为 SIGRAM: (CJK)+ ???????? 然后使用javacc工具编译,可以得到7个**.java文件,把这些文件覆盖这个包下面文件。? 2.5 : 编译src/build.xml???????? 加入 include name=IKAnalyzer3.2.5Stable.jar/3、根目录下 ant.搜索引擎需要的就是数据,抓取海量数据、然后存储、分析、建立索引、计算,最终根据用户需求快速检索出结果。存储分析和建立索引的过程开源项目中有个Hadoop是不二之选。这里分析的不是hadoop,而是搜索引擎中最后一步,也是至关重要的一步:中文分词。因为程序员基本是写java为主,故在考虑搜索引擎时,就采用了搜索领域影响颇深的基于纯java语言开发的Nutch搜索引擎。搜索引擎处理英文文档时,几乎不需要特殊的加工处理,英文文档本身就是以词为单位的组织,词个词之间是靠空格或标点符号显式地表示词的边界。我们采用的庖丁解牛正是为中文的分词提供了技术基础。首先,用wget下载了细胞词库,哇,太棒了,数据大的惊人。加上paoding自带的22M词库,基本可以满足我们词典库。 第一步是建立两个文件,在nutch目录的src/plugin目录下建立两个文件夹分别命名为analysis-zh,lib-paoding-analyzers。然后在这两个文件夹下建立plugin.xml和build.xml。 analysis-zh文件夹下plugin.xml内容如下: ?xml version=1.0 encoding=UTF-8? plugin id=analysis-zh name=Chinese Analysis Plug-in version=1.0.0 provider-name=net.paoding.analysis runtime library name=analysis-zh.jar export name=*/ /library /runtime requires import plugin=nutch-extensionpoints/ import plugin=lib-paoding-analyzers/ /requires extension id=org.apache.nutch.analysis.zh name=Chinese Analyzer poin
您可能关注的文档
最近下载
- 标准图集-09J202-1坡屋面建筑构造(一)图集.pdf VIP
- 术中获得性压力性损伤手术室全程管理专家共识解读.docx VIP
- 2025北京京水建设集团有限公司招聘4人笔试历年参考题库附带答案详解.docx VIP
- 1大数据与会计专业-大学生职业生涯规划书.pptx VIP
- 50118马工程行政法与行政诉讼法(第二版)全套PPT课件.ppt
- 宠物鲜粮自制商业计划书.docx VIP
- 基于室内定位导航技术的停车场寻车解决方案[共8页].docx VIP
- Bohemian Rhapsody钢琴谱五线谱 完整版原版.pdf
- 小学五年级语文第三单元教案.docx VIP
- 消防喷淋系统安装检验批质量验收记录.docx VIP
原创力文档


文档评论(0)