nutch源码分析1------inject.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
nutch源码分析1------inject

nutch源码分析1------inject 分类:?nutch2011-08-04 15:34?170人阅读?评论(0)?收藏?举报 最近在学习nutch,了解了nutch的一个大概的工作原理之后,就把源码下载下来,了解一些比较细的细节,今天先来看inject过程。 我用的使1.3版本的nutch 当在命令行中输入 bin/nutch crawl urls -dir crawl -depth 3 -topN 5 时,首先会进入Crawl.java的main方法,代码如下: public static void main(String args[]) throws Exception { ??? Configuration conf = NutchConfiguration.create(); ??? int res = ToolRunner.run(conf, new Crawl(), args); ??? System.exit(res); ? } 很容易看到当调用 ToolRunner.run方法时会调用Crawl的run方法: ?public int run(String[] args) throws Exception { ??? if (args.length 1) { ????? System.out.println ????? (Usage: Crawl urlDir -solr solrURL [-dir d] [-threads n] [-depth i] [-topN N]); ????? return -1; ??? } ??? Path rootUrlDir = null; ??? Path dir = new Path(crawl- + getDate()); ??? int threads = getConf().getInt(fetcher.threads.fetch, 10); ??? int depth = 5; ??? long topN = Long.MAX_VALUE; ??? String solrUrl = null; ?? ? ??? for (int i = 0; i args.length; i++) { ????? if (-dir.equals(args[i])) { ??????? dir = new Path(args[i+1]); ??????? i++; ????? } else if (-threads.equals(args[i])) { ??????? threads = Integer.parseInt(args[i+1]); ??????? i++; ????? } else if (-depth.equals(args[i])) { ??????? depth = Integer.parseInt(args[i+1]); ??????? i++; ????? } else if (-topN.equals(args[i])) { ????????? topN = Integer.parseInt(args[i+1]); ????????? i++; ????? } else if (-solr.equals(args[i])) { ??????? solrUrl = StringUtils.lowerCase(args[i + 1]); ??????? i++; ????? } else if (args[i] != null) { ??????? rootUrlDir = new Path(args[i]); ????? } ??? } ?? ? ??? JobConf job = new NutchJob(getConf()); ??? if (solrUrl == null) { ????? LOG.warn(solrUrl is not set, indexing will be skipped...); ??? } ??? FileSystem fs = FileSystem.get(job); ??? if (LOG.isInfoEnabled()) { ????? LOG.info(crawl started in: + dir); ????? LOG.info(rootUrlDir = + rootUrlDir); ????? LOG.info(threads = + threads); ????? LOG.info(depth = + depth);???? ? ????? LOG.info(solrUrl= + solrUrl); ????? if (topN != Long.MAX_VALUE) ???????

文档评论(0)

kabudou + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档