Python网络爬虫与数据采集试卷及答案4套.docxVIP

Python网络爬虫与数据采集试卷及答案4套.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Python网络爬虫与数据采集

选择题(每题2分)

查看网站所用的技术可以使用以下的哪个模块()

Wad

Python-whois

Request

Urllib

以下的XPath中用于选取所用N节点的表达式是()

N

/N

//N

N/N

正则表达式R[0-9]{3},能匹配出以下哪个字符串()

R3

R03

R09

R093

以下数据库中不属于关系数据库的是()

Mysql

Redis

MongpDB

PostgreSQL

以下关于cookie与session说法正确的是()

Cookie数据保存在服务器中

Session数据保存在本地

浏览器一般将cookie数据保存在http的body中

Session是指抽象的客户端-服务器交互模式

以下re方法中用于替换字符串的是()

Match

Sub

Find_all

Split

以下哪一个python库用于语言处理()

Numpy

NLTK

Sympy

Scipy

前端页面向后端发送表单数据通常使用()

Get

Post

Put

Delete

python的open方法中代表追加写内容的模式字符是()

r

w

a

w+

在scrapy目录下,哪个文件负责存放爬虫文件()

spiders文件夹

Item.py

Pipeline.py

Setting.py

判断题(每题2分)

axios通过同步加载的方式完成对内容的获取与呈现()

Requests比于urllib库更加简洁实用()

Selenium相比于Splash更加的节约资源()

DictReader可以将CSV的每一行作为一个字典来返回()

numpy一般是被认为基于pandas设计的()

Api与网页抓取共用许多概念与技术()

破解滑动验证码需要实现图像拼接与匀速滑动()

一般情况下ajax返回的数据是以xml形式封装的()

Tag标签为a、img、audio时属性为src()

Selenium的webdriver的版本必须和浏览器的版本相对应()

填空题(每题2分)

爬虫前我们应该了解网站的文件信息以被反爬虫封禁的风险。

CSV文件的分隔值是。

Python中内置的数据库模块是。

python中主要使用模块来实现序列化与反序列化。

常用的中文文本分析工具有。

BeautifulSoup中,通过tag的content属性可以将tag子节点以方式输出。

字符串str可以通过方法来去除左右空格。

用于re.findall函数中的?表达式用于提取http://开始的超链接。

解释Robots协议:。

表示匹配空行的正则表达式是。

简答题(每题4分)

请简要说明使用Selenium的大致流程。

是否可以将自己的爬虫的User-agent设置为知名爬虫呢。

请简要说明点击一个网页链接,会发生的一系列时间。

请简要说明爬虫时应对图片验证码的主要思路有哪些。

请简要说明cookie与session的区别。

应用题(每题10分)

1、使用requests模块,将/physicalstore/index/ajaxSearchStore/?storeCity=苏州storeProvince=江苏中的参数提取出来单独作为参数并访问这个url.

使用requests模块访问并通过正则表达式获取标题。

Python网络爬虫与数据采集答案

选择题(每题2分)

查看网站所用的技术可以使用以下的哪个模块(A)

Wad

Python-whois

Request

Urllib

以下的XPath中用于选取所用N节点的表达式是(C)

N

/N

//N

N/N

正则表达式R[0-9]{3},能匹配出以下哪个字符串(D)

R3

R03

R09

R093

以下数据库中不属于关系数据库的是(B)

Mysql

Redis

MongpDB

PostgreSQL

以下关于cookie与session说法正确的是(D)

Cookie数据保存在服务器中

Session数据保存在本地

浏览器一般将cookie数据保存在http的body中

Session是指抽象的客户端-服务器交互模式

以下re方法中用于替换字符串的是(B)

Match

Sub

Find_all

Split

以下哪一个python库用于语言处理(B)

Numpy

NLTK

Sympy

Scipy

前端页面向后端发送表单数据通常使用(B)

Get

Post

Put

Delete

python的open方法中代表追加写内容的模式字符是(C)

r

w

a

w+

文档评论(0)

139****1983 + 关注
实名认证
文档贡献者

副教授、一级建造师持证人

从事职业教育近20年,高级职称。

领域认证该用户于2023年06月21日上传了副教授、一级建造师

1亿VIP精品文档

相关文档