中国计算机学会科前沿讲习班信息检索 Crawling the.pptVIP

中国计算机学会科前沿讲习班信息检索 Crawling the.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中国计算机学会科前沿讲习班信息检索 Crawling the

* * * 缺点: Context维护,编程复杂 Smp无法用,还要多线程 * Part Three: Url Distiller * Robin Fingerprint .vs. MD5 * * Internet Archive的crawler Heritrix使用的技术 / http://www.cl.cam.ac.uk/~ey204/h_files/sp.htm /jiaomeng/archive/2007/01/27/1495500.aspx Bloom Filter是一种空间效率很高的随机数据结构,它利用位数组很简洁地表示一个集合,并能判断一个元素是否属于 这个集合。Bloom Filter的这种高效是有一定代价的:在判断一个元素是否属于某个集合时,有可能会把不属于这个集合的元素误 认为属于这个集合(false positive)。因此,Bloom Filter不适合那些“零错误”的应用场合。而在能容忍低错误率的应用场合下,Bloom Filter通过极少的错误换取了存储空间的极大节省。 * * 在“利用访问的局部性”和“对网站的礼貌性”之间求得平衡 * 减少爬取中的别名冗余网页(不仅本身开销,还有其中的相对链接v) 重复网页的检测:镜像网页和网站 * * * * Some pages here borrowed from /~zives/cis555/ It’s a nice course! * * * * * You can read this: /blog/tomwhite/archive/2007/11/consistent_hash.html And /memcached/ * * You can read this: /blog/tomwhite/archive/2007/11/consistent_hash.html And /memcached/ * * Cho, J. and Garcia-Molina, H. (2003). Effective page refresh policies for web crawlers. ACM Transactions on Database Systems, 28(4). * * * * * A robots.txt file can contain a reference to a sitemap. * * 46% 50% UniqueCoverage? 12% 90% UniqueCoverage. Figure 3 shows how the coverage of domains are distributed by their size. At least 46% of the domains have above 50% UniqueCoverage and above 12% have above 90% UniqueCoverage. There is no apparent correlation between the size of the domain and UniqueCoverage. * * * * * One Web , One Dream Summary Crawler面临的难题 Scalable, fast, polite, robust, continuous 实现高效率的基本技术 Cache Prefetch Concurrency 多进程/多线程 异步I/O 有趣的技术 Bloom filter Consistent Hashing * * * * * HTML 4.01 Specification: /TR/1999/REC-html401html40.txt * * Web是一个有向图 * * * Completeness is not guaranteed Impossible to guarantee each connected subgraph is sampled How to make it better? more seeds, more diverse seeds, port scanner maybe help * Given that the bandwidth for conducting crawls is neither infinite nor free, it is becoming essential to crawl the Web in not only a scalable, but efficient way, if some reasonable measure of quality or freshness is t

文档评论(0)

5201314118 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:7065201001000004

1亿VIP精品文档

相关文档