网络爬虫程序编写.pptxVIP

  1. 1、本文档共11页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
网络爬虫编写 网络爬虫简介 网络爬虫具体流程如下: 首先选取一部分种子URL 将这些URL输入待抓取URL队列 从待抓取URL队列中取出待抓取的URL,解析DNS,得到主机的IP地址,并将URL对应的网页下载下来,存储到已下载网页库中,再将这些URL放进已抓取URL队列 分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入抓取URL队列 网络爬虫编写 采集Web数据实例 网络爬虫编写 采集Web数据实例 步骤5:将data写入本地sogoutest.HTML文件进行保存。在系统中创建HTML格式的文件sogoutest。>>>fh2=open("D:\Python35\sugoutest.HTML","w",encoding="utf-8") >>>fh2.write(data) >>>fh2.close() 网络爬虫编写 采集Web数据实例 步骤1:打开Python编辑器IDLE。 步骤2:导入要使用的库 >>>import urllib.request 步骤3:设置目的网页地址,代码如下所示: >>>url="/" 网络爬虫编写 采集Web数据实例 步骤4:在Python中设置User-Agent字段值。此处将User-Agent设置成Chrome浏览器的用户代理。 >>>headers=("User-Agent","Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/46.0.2490.76 Mobile Safari/537.36") 步骤5:创建opener对象,并将headers报头信息加载到opener中,代码如下所示: >>>opener=urllib.request.build_opener() >>>opener.addheaders=[headers] 步骤6:再利用opener对象模拟Chrome浏览器爬取目的网页内容,代码如下所示: >>>data=opener.open(url).read() 再参照“构造get请求爬取搜狗首页”的步骤5将data数据存储到本地。 网络爬虫编写 采集Web数据实例 5)获取目的网页响应的内容 采用Request方法将url2网址封装为一个get请求req,再使用urlopen方法打开req,通过read方法读取内容. >>>req=urllib.request.Request(url2) >>>data=urllib.request.urlopen(url2).read 6)将data写入本地baidusearch.HTML文件进行保存 >>>fh=open("D:/Python35/baidusearch.HTML","bw") >>>fh.write(data) >>>fh.close() 2)导入要使用的库,代码如下所示 >>>import urllib.request 3)设置待检索关键词 >>>key="Python 学习方法" >>>key_code=urllib.request.quote(key) 4)生成目的网址 >>>url2=url+key_code 网络爬虫编写 采集Web数据实例 步骤1:打开Python编辑器IDLE 步骤2:导入要使用的库,代码如下所示: >>>import urllib.request >>>import urllib.parse 步骤3:设置目的网址。 步骤4:设置post请求数据。post请求数据应为输入登录表单的账号、密码。 >>>postdata=urllib.parse.urlencode({"name":"admin","pass":"123456"}).encode ('utf-8') 步骤5:构造post请求。 >>> req=urllib.request.Request(url,postdata) 网络爬虫编写 采集Web数据实例 步骤6:模拟浏览器。将User-Agent的内容加载到post请求的头部。 >>> req.add_header('User-Agent','Mozilla/5.0 (Linux; Android 6.0; Nexus 5 Build/MRA58N) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/ 46.0.2490.76 Mobile Safari/537.36') 步骤7:获取目的网页响应内容。 >>> data=urllib.request.urlopen(req).read() 步骤8:将data写入本地文件并保存。 >>> fh3=

文档评论(0)

智慧能源 + 关注
实名认证
服务提供商

企业信息管理师持证人

新能源集控中心项目 智慧电厂建设项目 智慧光伏 智慧水电 智慧燃机 智慧工地 智慧城市 数据中心 电力行业信息化

领域认证该用户于2023年02月15日上传了企业信息管理师

1亿VIP精品文档

相关文档