Python网络爬虫实习报告.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Python 网络爬虫实习报告 Python 网络爬虫实习(报告) 目录 选 题 背 景 - 2 - 爬 虫 原 理 - 2 - 爬 虫 历 史 和 分 类 - 2 - 常 用 爬 虫 框 架 比 较 - 5 - 数 据 爬 取 实 战 ( 豆 瓣 网 爬 取 电 影 数 据 ) - 6 - 分 析 网 页 - 6 - 爬 取 数 据 - 7 - 数 据 整 理 、 转 换 - 10 - 数 据 保 存 、 展 示 - 12 - 技 术 难 点 关 键 点 - 12 - 六 、 总 结 . - 14 - - 0 - Python 网络爬虫实习(报告) 选题背景 爬虫原理 爬虫历史和分类 常用爬虫框架比较 Scrapy 框架:Scrapy 框架是一套比较成熟的 Python 爬虫框架,是使 用 Python 开发的快速、高层次的信息爬取框架,可以高效的爬取 web 页面并提取出结构化数据。Scrapy 应用范围很广,爬虫开发、数 据挖掘、数据监测、自动化测试等。 Crawley 框架:Crawley 也是 Python 开发出的爬虫框架,该框架致力 于改变人们从互联网中提取数据的方式。 Portia 框架:Portia 框架是一款允许没有任何编程基础的用户可视化 地爬取网页的爬虫框架。 newspaper 框架:newspaper 框架是一个用来提取新闻、文章以及内容 分析的 Python 爬虫框架。 Python-goose 框架:Python-goose 框架可提取的信息包括:1文章 主体内容;2文章主要图片;3文章中嵌入的任 heYoutube/Vimeo 视 频;4元描述;5元标签 - 1 - Python 网络爬虫实习(报告) 五、数据爬取实战(豆瓣网爬取电影数据) 1 分析网页 # 获取 html 源代码 def __getHtml(): data = [] pageNum = 1 pageSize = 0 try: while (pageSize = 125): # headers = {User-Agent:Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11, # Referer:None #注意如果依然不能抓取的话,这里 可以设置抓取网站的 host # } # opener = urllib.request.build_opener() # opener.addheaders = [headers] url = /top250?start= + str(pageSize) + filter= + str(pageNum) # data[html%s % i ]=urllib.request.urlopen(url).read().decode(utf-8) - 2 - Python 网络爬虫实习(报告) data.append(urllib.request.urlopen(url).read().decode(utf- 8)) pageSize += 25 pageNum += 1 print(pageSize, pageNum) except Exception as e: raise e return data 2 爬取数据 def __getData(html): title = []  # 电影标题 #rating_num = [] # 评分 range_num = []  # 排名 #rating_people_num = [] # 评价人数 movie_author = []  # 导演 data = {} # bs4 解析 html soup = BeautifulSoup(html, html.parser) for li in soup.find(ol, attrs={class: grid_view}).find_all(li): - 3 - Python 网络爬虫实习(报告) title.append(li.find(span, class_=title).text) #rating_num.append(l

文档评论(0)

dashifuniu + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档