基于scrapy框架的腾讯招聘信息网络爬虫设计与实现.docVIP

基于scrapy框架的腾讯招聘信息网络爬虫设计与实现.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

PAGE

PAGE3

基于scrapy框架的腾讯招聘信息网络爬虫设计与实现

摘要:随着网络科技技术的快速增长,网络数据已经成为一种极其重要的资源。如今的一个研究热点是如何快速和有效率地寻找、提取、分析数据。对于这些方法,运用Python的Scrapy框架可以设计出网络爬虫,对网络数据进行提取分析。先分析网站源代码,之后设计出相应的表达式来提取需要用到的数据,提取结束之后将数据保存进数据库里。

本课题是一个基于scrapy分布式爬虫针对腾讯招聘网站数据的抓取系统,为数据进一步操作做数据支持。设计系统使用Python的Scrapy框架,根据网页分析得到json数据包,然后使用json.load()对下载的网页数据转化为python数据再提取,依靠Redis数据库实现分布式的功能,将数据存储进mysql数据库里,设计以及完成了针对腾讯招聘职位信息的分布式网络爬虫。

关键词:爬虫,scrapy框架,腾讯招聘

TheDesignandImplementationofWebsiteCrawleroftheTencentRecruitmentInformationwhichBasiconScrapyDistributed

Abstract:Withtherapidgrowthofinformationtechnology,networkdatahasbecomemoreandmoreimportantresource.Nowadays,aresearchhotspotishowtosearch,extractandanalyzedataquicklyandefficiently.Forthesemethods,atpresent,wecanusescrapyframeworktodesignwebcrawlertooperatedata.Atfirst,itintroducestheapplicationofscrapyinpython,thenanalyzesthetargetwebsite,designsthecorrespondingexpressiontoextracttherequireddata,andfinallysavesthedatatoafiletorealizethestoragepersistence.

Basedonscrapydistributedofwebsitedatawhattencentrecruitmentscrapingsystem,forthefurtherapplicationofdatathatisjobsearchandrecommendationsystemtododatasupport.Theprojectisadistributedcrawlerbasedonscrapyinpython,accordingtowebpageanalysis,json.load()isusedtoconvertthedownloadedwebpagedataintopythondataforextraction.ThesystemuseRedisdatabasefordistributionandusemysqldatabasefordatastorage,itwasdesignedandimplementedadistributedcrawlersystemfortencent‘srecruitmentandjobdata.

Keywords:Crawler,Scrapy,Tencentrecruitment

PAGE27

目录

TOC\o1-3\h\z\u第1章绪论 1

1.1研究背景和意义 1

1.1.1选题的目的及意义 1

1.1.2国内外发展状况 1

1.2研究的基本内容与拟解决的主要问题 1

1.3研究的方法与技术路线 2

1.3.1研究方法 2

1.3.2研究手段 2

第2章基于python的网络爬虫 4

2.1python语言简介 4

2.2网络爬虫 4

2.2.1网络爬虫的定义 4

2.2.2网络爬虫的基本流程 5

2.3scrapy框架 5

2.3.1

文档评论(0)

181****2496 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档