南开20秋学期《网络爬虫与信息提取》在线作业答案.pdfVIP

南开20秋学期《网络爬虫与信息提取》在线作业答案.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
20 秋学期(1709、1803、1809、1903、1909、2003、2009 )《网络爬虫与信息提取》在线 作业 试卷总分:100 得分:98 一、单选题 (共 20 道试题,共 40 分) 1.Redis 若要进入交互环境,需要打开终端输入() A.redis-cli B.redis C.redis-cmd D.redis-start 答案:A 2.使用UI Automatorr 根据坐标来滑动桌面的操作是得到相应控件后使用命令() A.swipe B.move C.scroll D.fly 答案:A 3.Python 中Object={obj_1:1,obj_2:2},则Objcet.get(boj_3,3)是() A.1 B.2 C.3 D.无输出 答案:C 4.Python 中若定义object=12345,则print(object[::-1])输出() A.1 B.5 C.54321 D.程序报错 答案:C 5.在Scrapy 的目录下,哪个文件负责定义需要爬取的数据?() A.spiders 文件夹 B.item.py C.pipeline.py D.settings.py 答案:B 6.Python 中Object=(1, 2, 3, 4, 5),则Objcet 是() A.列表 B.元组 C.字典 D.集合 答案:B 7.如果很多爬虫同时对一个网站全速爬取,那么其实就是对网站进行了()攻击 A.XSS B.DOS C.DDOS D.跨域 答案:C 8.当爬虫创建好了之后,可以使用scrapy() 命令运行爬虫。 A.startup B.starwar C.drawl D.crawl 答案:D 9.Redis 是()数据库 A.关系数据库 B.键值数据库 C.列存数据库 D.图数据库 答案:B 10.Scrapy 中使用Xpath 获得的结果调用了.extract 方法,结果以()形式生成 A.列表 B.元组 C.字典 D.集合 答案:A 11.使用UI Automator 打开微信的操作是获取相应图标后使用命令() A.touch B.clic C.push D.hover 答案:B 12.使用xpath 方法的返回类型是() A.列表 B.元组 C.字典 D.集合 答案:A

文档评论(0)

文库垃圾佬 + 关注
实名认证
文档贡献者

这个人很懒

1亿VIP精品文档

相关文档