云应用开发类企业案例基于Zookeeper搭建Spark集群基于Zookeeper搭建Spark高可用集群.docxVIP

云应用开发类企业案例基于Zookeeper搭建Spark集群基于Zookeeper搭建Spark高可用集群.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于 Zookeeper 搭建 Spark 高可用集群 1集群规划 这里搭建一个 3 节点的 Spark 集群,其中三台主机上均部署?Worker?服务。同时为了保证高可用,除了在 hadoop001 上部署主?Master?服务外,还在 hadoop002 和 hadoop003 上分别部署备用的?Master?服务,Master 服务由 Zookeeper 集群进行协调管理,如果主?Master?不可用,则备用?Master?会成为新的主?Master。 2 前置条件 搭建 Spark 集群前,需要保证 JDK 环境、Zookeeper 集群和 Hadoop 集群已经搭建. 3 Spark集群搭建 3.1 下载解压 下载所需版本的 Spark,官网下载地址: /downloads.html 下载后进行解压,命令如下: tar -zxvf spark-2.2.3-bin-hadoop2.6.tgz 3.2 配置环境变量 配置/etc/profile文件,命令如下 vim /etc/profile 添加环境变量,配置如下: export SPARK_HOME=/usr/app/spark-2.2.3-bin-hadoop2.6 export PATH=${SPARK_HOME}/bin:$PATH 使得配置的环境变量立即生效,命令如下: source /etc/profile 3.3 集群配置 进入?${SPARK_HOME}/conf?目录,拷贝配置样本进行修改: 3.3.1 spark-env.sh Spark-env.sh配置内容如下: cp spark-env.sh.template spark-env.sh # 配置JDK安装位置 JAVA_HOME=/usr/java/jdk1.8.0_201 # 配置hadoop配置文件的位置 HADOOP_CONF_DIR=/usr/app/hadoop-2.6.0-cdh5.15.2/etc/hadoop # 配置zookeeper地址 SPARK_DAEMON_JAVA_OPTS=-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop001:2181,hadoop002:2181,hadoop003:2181 -Dspark.deploy.zookeeper.dir=/spark 3.3.2 slaves 配置从节点,需要将slaves.template复制并命名为slaves,然后编辑该文件,配置从节点主机名,命令如下 cp slaves.template slaves vi slaves #配置所有 Woker 节点的位置,将从节点主机名添加上去 hadoop001 hadoop002 hadoop003 3.3.3 安装包分发 将 Spark 的安装包分发到其他服务器,分发后建议在这两台服务器上也配置一下 Spark 的环境变量。命令如下: scp -r /usr/app/spark-2.4.0-bin-hadoop2.6/ hadoop002:usr/app/ scp -r /usr/app/spark-2.4.0-bin-hadoop2.6/ hadoop003:usr/app/ 4 启动集群 4.1 启动ZooKeeper集群 分别到三台服务器上启动 ZooKeeper 服务,命令如下: zkServer.sh start 4.2 启动Hadoop集群 命令如下: # 启动dfs服务 start-dfs.sh # 启动yarn服务 start-yarn.sh 4.3 启动Spark集群 进入 hadoop001 的?${SPARK_HOME}/sbin?目录下,执行下面命令启动集群。执行命令后,会在 hadoop001 上启动?Maser服务,会在?slaves?配置文件中配置的所有节点上启动?Worker?服务,命令如下 start-all.sh 分别在 hadoop002 和 hadoop003 上执行下面的命令,启动备用的?Master?服务: # ${SPARK_HOME}/sbin 下执行 start-master.sh 4.4 查看服务 查看 Spark 的 Web-UI 页面,端口为?8080。此时可以看到 hadoop001 上的 Master 节点处于?ALIVE?状态,并有 3 个可用的?Worker?节点,如图1所示: 图1 Spark集群节点存活数 而 hadoop002 和 hadoop003 上的 Master 节点均处于?STANDBY?状态,没有可用的?Worker?节点,如图2所示: 图2 从节点状态 5 验证集群高可

您可能关注的文档

文档评论(0)

WanDocx + 关注
实名认证
文档贡献者

大部分文档都有全套资料,如需打包优惠下载,请留言联系。 所有资料均来源于互联网公开下载资源,如有侵权,请联系管理员及时删除。

1亿VIP精品文档

相关文档