理解网络爬虫.pdf

  1. 1、本文档共42页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第 1 章 理解网络爬虫 1.1 爬虫的定义 网络爬虫是一种按照一定的规则自动地抓取网络信息的程序或者脚本。简单来说,网络爬虫 就是根据一定的算法实现编程开发,主要通过 URL 实现数据的抓取和发掘。 随着大数据时代的发展,数据规模越来越庞大,数据类型繁多,但是数据价值普遍较低。为 了从庞大的数据体系里获取有价值的数据,从而延伸了网络爬虫、数据分析等多个职位。近几年, 网络爬虫的需求更是井喷式地爆发,在招聘的供求市场上往往是供不应求,造成这个现状的主要原 因就是求职者的专业水平低于需求企业的要求。 传统的爬虫有百度、Google 、必应等搜索引擎,这类通用的搜索引擎都有自己的核心算法。 但是,通用的搜索引擎存在着一定的局限性: (1)不同的搜索引擎对于 同一个搜索会有不同的结果,搜索出来的结果未必是用户需要的信 息。 (2 )通用的搜索引擎扩大了网络覆盖率,但有限的搜索引擎服务器资源与无限的网络数据资 源之间的矛盾将进一步加深。 (3 )随着网络上数据形式繁多和网络技术的不断发展,图片、数据库、音频、视频多媒体等 不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能 很好地发现和获取。 因此,为了得到准确的数据,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个 自动下载网页的程序,可根据设定的抓取目标有 目的性地访问互联网上的网页与相关的 URL ,从 而获取所需要的信息。与通用爬虫不同,聚焦爬虫并不追求全面的覆盖率,而是抓取与某一特定内 容相关的网页,为面 向特定的用户提供准备数据资源。 2 | 实战 Python 网络爬虫 1.2 爬虫的类型 网络爬虫根据系统结构和开发技术大致可以分为 4 种类型:通用网络爬虫、聚焦网络爬虫、 增量式网络爬虫和深层网络爬虫。 通用网络爬虫又称全网爬虫,常见的有百度、Google 、必应等搜索引擎,爬行对象从一些初 始 URL 扩充到整个网站,主要为门户站点搜索引擎和大型网站服务采集数据,具有以下特点: (1)由于商业原因,引擎的算法是不会对外公布的。 (2 )这类网络爬虫的爬取范围和数量巨大,对于爬取速度和存储空间要求较高,爬取页面的 顺序要求相对较低。 (3 )待刷新的页面太多,通常采用并行工作方式,但需要较长时间才能刷新一次页面。 (4 )存在一定缺陷 ,通用网络爬虫适用于为搜索引擎搜索广泛的需求。 聚焦网络爬虫又称主题网络爬虫,是选择性地爬取根据需求的主题相关页面的网络爬虫。与 通用网络爬虫相 比,聚焦爬虫只需要爬取与主题相关的页面,不需要广泛地覆盖无关的网页,很好 地满足一些特定人群对特定领域信息的需求。 增量式网络爬虫是指对已下载网页采取增量式更新和只爬取新产生或者已经发生变化的网页 的爬虫,它能够在一定程度上保证所爬取的页面尽可能是新的页面。只会在需要的时候爬取新产生 或发生更新的页面 ,并不重新下载没有发生变化的页面,可有效减少数据下载量,及时更新已爬 取的网页,减小时间和空间上的耗费,但是增加了爬取算法的复杂度和实现难度,基本上这类爬虫 在实际开发中不太普及。 深层网络爬虫是大部分内容不能通过静态 URL 获取的、隐藏在搜索表单后的、只有用户提交 一些关键词才能获得的网络页面。例如某些网站需要用户登录或者通过提交表单实现提交数据。这 类爬虫也是本书讲述的重点之一。 实际上,聚焦网络爬虫、增量式网络爬虫和深层网络爬虫可以通俗地归纳为一类,因为这类 爬虫都是定向爬取数据。相 比于通用爬虫,这类爬虫 比较有 目的性,也就是网络上经常说的网络爬 虫,而通用爬虫在网络上通常称为搜索引擎。 1.3 爬虫的原理 通用网络爬虫的实现原理及过程如图 1-1 所示 。 第 1 章 理解网络爬虫 | 3 图 1-

文档评论(0)

gkok007 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档