1+x大数据试题库与参考答案.docxVIP

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

1+x大数据试题库与参考答案

一、单选题(共93题,每题1分,共93分)

1.HBase依赖_()存储底层数据

A、HDFS

B、Hadoop

C、Memory

D、MapReduce

正确答案:A

2.flume中那种source类型支持Unix的命令标准在生产数据()

A、Avr0Source

B、ThriftSource

C、ExecSource

D、JMSSource

正确答案:C

3.下列不属于NameNode的功能()。

A、提供名称查询服务

B、保存Block信息,汇报Block信息

C、保存metadata信息

D、metadata信息在启动后会加载到内存

正确答案:B

4.Hadoop作者

A、MartinFowler

B、KentBeck

C、Dougcutting

正确答案:C

5.tar命令用于对文件进行打包压缩或解压,-t参数含义()

A、创建压缩文件

B、查看压缩包内有哪些文件

C、解开压缩文件

D、向压缩归档末尾追加文件

正确答案:B

6.下面哪个目录保存了Hadoop集群的命令(比如启动Hadoop)?()

A、share

B、sbin

C、etc

D、bin

正确答案:B

7.HDFS有一个LZO(withindex)文件大小75MB,客户端设置Block大小为64MB。当运行mapreduce任务读取该文件时inputsplit大小为?

A、64MB

B、75MB

C、一个map读取64MB,另外一个map读取11MB

正确答案:C

8.关于Hadoop的运行机制过程顺序说法正确的是()

A、作业初始化--作业提交--任务分配--任务的执行--任务进度和状态的更新--任务结束

B、任务分配--作业提交--作业初始化--任务的执行--任务进度和状态的更新--任务结束

C、任务执行-作业提交--作业初始化--任务的分配--任务进度和状态的更新--任务结束

D、作业提交--作业初始化--任务分配--任务的执行--任务进度和状态的更新--任务结束

正确答案:D

9.Sqoop的底层实现是()?

A、HDFS

B、MapReduce

C、Hbase

D、Hadoop

正确答案:B

10.Hadoop官方真正支持的操作系统是()

A、UNIX

B、Windows

C、DOS

D、Linux

正确答案:D

11.Hive默认的元存储是保存在内嵌的()数据库中

A、MySQL

B、Derby

C、Oracle

D、SqlServer

正确答案:B

12.在HDFS分布式文件系统中,一般采用冗余存储,冗余因子通常设置为()

A、1

B、2

C、3

D、4

正确答案:C

13.Flume用于收集数据,其传输的数据基本单位是?

A、Split

B、Block

C、Event

D、Packet

正确答案:C

14.有关使用sqoop抽取数据的原理的描述不正确的是()

A、sqoop抽取数据是个多节点并行抽取的过程,因此map的个数设置的越多性越好

B、sqoop在抽取数据的时候可以指定map的个数,map的个数决定在hdfs生成的

C、sqoop抽取数据的时候需要保证执行当前用户有权限执行相应的操作

D、sqoop任务的切分是根据split字段的(最大值-最小值)/map数

正确答案:A

15.以下选项哪个是HDFS的名称节点()

A、DataNode

B、SecondaryNode

C、Node

D、NameNode

正确答案:D

16.Sqoop是Hadoop和关系数据库服务器之间传送数据的工具,下列哪种数据库是不支持使用Sqoop直接进行数据传送()

A、Postgres

B、MySQL

C、Redis

D、Oracle

正确答案:C

17.HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是:()

A、一次写入,少次读写

B、多次写入,少次读写

C、一次写入,多次读写

D、多次写入,多次读写

正确答案:C

18.以下关于日志采集工具Flume的说法不正确的是?

A、Flume是一个分布式、可靠和高可用的海量日志采集、聚合和传输的日志收集系统

B、Flume适用于大量数据的实时数据采集

C、Flume支持多级级联和多路复制

D、Flume的数据源和目标都是可定制、可扩展的

正确答案:C

19.配置Hadoop环境变量修改()文件

A、vi/etc/profiles

B、vi~/input/data

C、vi/etc/profile

D、vi/etc/hosts

正确答案:C

20.下列选项中,正确描述flume对数据源的支持是?

A、只能使用HDF

文档评论(0)

十四-1 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档