python精品教学课件(温州大学)补充:爬虫技术(包括正则).pptxVIP

python精品教学课件(温州大学)补充:爬虫技术(包括正则).pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
补充:爬虫技术;第1部分 初见爬虫;WHY?;网络数据采集是一个综合主题;使用爬虫的一般步骤;网络连接;这样,我们就实现了互联网。。。1969年arpanet 在此过程中?网络浏览器有参与吗? 没有! 1990年,第一个网络浏览器nexus被发明。;from urllib.request import urlopen html = urlopen(/pages/page1.html) print(html.read()) 在python 3.x里,urllib2已经被改名为urllib 是python的标准库,帮助文档: /3/library/urllib.html urlopen用来打开并读取一个从网络获取的远程对象;BeautifulSoup简介;/tiy/t.asp?f=html_basic;BeautifulSoup简介;使用BeautifulSoup;从html到BeautifulSoup的转换;可靠的网络连接;html = urlopen(/pages/page1.html);html = urlopen(/pages/page1.html);标签错误:bs中没有的标签;如何避免后两者的异常?;代码重构;第2部分 复杂的html解析;有人问米开朗基罗:如何完成雕塑《大卫》? 答曰:只要用锤子把石头上不是大卫的部分敲掉就行了! 在找到目标信息之前,有很多技巧“敲掉”网页上那些不重要的信息。;页面解析难题(Gordian knot);此外,难题还包括:;CSS:层叠样式表;BeautifulSoup,再来一碗!;BeautifulSoup,再来一碗!;bs的find()和findall();bs的find()和findall();导航树:Navigating Tree;此页面映射为一棵树;处理子标签;处理兄弟标签;处理父标签;regex:正则表达式;re(regular expression);中文的问题;听题:请写出满足如下条件的字符串;在线测试正则表达式;用正则表达式提取字符串中的邮箱地址;python中如何使用re模块;re匹配对象和组;环视(Lookaround);环视表达式类型;利用环视插入分隔符;电话号码的正则表达式;常用正则表达式;常用正则表达式;常用正则表达式;正则表达式和BeautifulSoup;from urllib.request import urlopen from bs4 import BeautifulSoup import re html = urlopen(/pages/page3.html) bsObj = BeautifulSoup(html, lxml) images = bsObj.findAll(img, {src:pile(\.\.\/img\/gifts/img.*\.jpg)}) for image in images: print(image[src]) 这里,正则表达式可以作为bs语句的任意一个参数,使用及其灵活;获取属性;from urllib.request import urlopen from bs4 import BeautifulSoup html = urlopen(/p/5069359168?red_tag=u0627780758) bsObj = BeautifulSoup(html, lxml) bsObj.a bsObj.a.attrs bsObj.img bsObj.img.attrs[src];lambda表达式;不选BeautifulSoup;第3部分 开始采集;遍历单个域名;如何进入一个页面并获取此页面的链接?;提出问题;分析问题;解决问题;写出getLinks函数;采集整个网站;开始采集整个网络;pages = set() def getLinks(pageUrl): global pages html = urlopen(+pageUrl) bsObj = BeautifulSoup(html) for link in bsObj.findAll(a, href=pile(^(/wiki/))): if href in link.attrs: if link.attrs[href] not in pages: newPage = link.attrs[href] print(newPage) pages.add(newPage) getLinks(newPage) getLinks();横扫互联网;专业化生成:用Scr

文档评论(0)

1243595614 + 关注
实名认证
文档贡献者

文档有任何问题,请私信留言,会第一时间解决。

版权声明书
用户编号:7043023136000000

1亿VIP精品文档

相关文档