- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
主观题1:数字技术平台部署(30分)
本任务需要在Linux下中完成完全分布式Hadoop集群搭建、Hive安装及配置、完全分布式Spark集群搭建,并验证组件的可用性,请使用root用户完成相关配置,具体要求如下。
1.1完全分布式Hadoop集群搭建:
(1)在master主节点将/data目录下的JAVA安装包和Hadoop安装包解压到/opt/software目录下(需自行创建/opt/software目录),并将解压后的JAVA远程拷贝至slvael、slave2相同目录下,最后查看各节点的/opt/software目录结构并将查看结果截图。
(2)在3个节点的/etc/profile文件中配置JDK环境变量JAVA_HOME、Hadoop环境变量HADOOP_HOME和PATH的值,并让配置文件立即生效,之后在master节点使用“java
-version”查看JAVA版本,检测JAVA是否安装成功,将查看JAVA版本结果截图。
(3)根据下表修改core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml、workers、hadoop-env.sh、yarn-env.sh配置文件,以及HDFS与YARN的启动和关闭脚本。
表1Hadoop集群部署规划
服务器
master
slave1
slave2
HDFS
NameNode
HDFS
SecondaryNameNod
HDFS
DataNode
DataNode
YARN
ResourceManager
YARN
NodeManager
NodeManager
历史日志服务器
JobHistoryServer
(4)在master节点上使用scp命令将配置完的Hadoop安装目录远程拷贝至slavel和slave2相同目录下,之后查看slavel和slave2的/opt/software目录结构并将查看结果截图。
(5)在主节点格式化集群,成功格式化之后在主节点依次启动HDFS、YARN服务、JobHistoryServer服务,并查看其节点进程,将查看结果截图。
(6)在HDFS文件系统中创建/etc目录,之后将本地/etc/profile文件上传至HDFS的/etc目录下,并查看该目录下的文件和目录。
(7)使用hadoop-mapreduce-examples-3.1.4.jar包中的“wordcount”类对HDFS上的/etc/profile文件内容进行单词计数,设置输出路径为“/output/”,查看最终单词计数结果中出现次数最多的5个单词。
1.2Hive安装及配置:
(1)将/data目录下的Hive安装包解压到/opt/software目录下(需自行创建/opt/software目录)。
(2)进入Hive安装目录的conf目录,将hive-env.sh.template重命名为hive-env.sh,之后查看/etc/profile文件中的Hadoop安装目录(HADOOP_HOME),并将查看到的HADOOP_HOME添加至hive-env.sh文件末尾。
(3)在Hive安装目录的conf目录下新建hive-site.xml配置文件并添加内容。
表2hive-site.xml部分参数
配置参数
描述
参数值
hive.metastore.warehouse.dir
元数据库位置
hdfs://master:8020/user/hive/warehouse
javax.jdo.option.ConnectionURL
元数据库的链接信息
jdbc:mysql://master:3306/hive?createDatabaselfNotExist=true
javax.jdo.option.ConnectionDriverName
连接数据库驱动
com.mysql.cj.jdbc.Driver
javax.jdo.option.ConnectionUserName
连接数据库用户名称
root
javax.jdo.option.ConnectionPassword
连接数据库用户密码
123456
(4)将/data目录下的MySQL驱动mysql-connector-java-8.0.30.jar复制到Hive安装目录的lib目录,同时将该lib目录下的jline-2.12.jar复制到各节点的Hadoop安装目录的/share/hadoop/
原创力文档


文档评论(0)