- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Spark环境搭建和使用方法2018年2月-厦门大学数据库室
4.4.1 集群概况 采用3台机器(节点)作为实例来演示如何搭建Spark集群 其中1台机器(节点)作为Master节点 另外两台机器(节点)作为Slave节点(即作为Worker节点),主机名分别为Slave01和Slave02 Master Slave01 Slave02 4.4.2 准备工作:搭建Hadoop集群环境 Spark+HDFS运行架构 请参考厦门大学数据库实验室建设的“高校大数据课程公共服务平台”里面的技术博客:《 Hadoop 2.7分布式集群环境搭建》 文章地址:/blog/1177-2/ 4.4.3 安装Spark 在Master节点上,访问Spark官网下载Spark安装包 sudo tar -zxf ~/下载/spark-2.1.0-bin-without-hadoop.tgz -C /usr/local/ cd /usr/local sudo mv ./spark-2.1.0-bin-without-hadoop/ ./spark sudo chown -R hadoop ./spark 4.4.4 配置环境变量 在Master节点主机的终端中执行如下命令: $ vim ~/.bashrc 在.bashrc添加如下配置: export SPARK_HOME=/usr/local/spark export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin $ source ~/.bashrc 运行source命令使得配置立即生效: 4.4.5 Spark配置 (1)配置slaves文件 将 slaves.template 拷贝到 slaves $ cd /usr/local/spark/ $ cp ./conf/slaves.template ./conf/slaves slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容: Slave01slave02 4.4.5 Spark配置 (2)配置spark-env.sh文件 将 spark-env.sh.template 拷贝到 spark-env.sh $ cp ./conf/spark-env.sh.template ./conf/spark-env.sh 编辑spark-env.sh,添加如下内容: export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=04 4.4.5 Spark配置 配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上在Master主机上执行如下命令: cd /usr/local/ tar -zcf ~/spark.master.tar.gz ./spark cd ~ scp ./spark.master.tar.gz slave01:/home/hadoop scp ./spark.master.tar.gz slave02:/home/hadoop 在slave01,slave02节点上分别执行下面同样的操作: sudo rm -rf /usr/local/spark/ sudo tar -zxf ~/spark.master.tar.gz -C /usr/local sudo chown -R hadoop /usr/local/spark 4.4.6 启动Spark集群 (1)首先启动Hadoop集群。在Master节点主机上运行如下命令: $ cd /usr/local/hadoop/ $ sbin/start-all.sh (2)启动Master节点 在Master节点主机上运行如下命令: $ cd /usr/local/spark/ $ sbin/start-master.sh (3)启动所有Slave节点 在Master节点主机上运行如下命令: $ sbin/start-slaves.sh 4.4.6 启动Spark集群 (4)在浏览器上查看Spark独立集群管理器的集群信息 在Master主机上打开浏览器,访问http://master:8080,如下图: 4.4.7 关闭Spark集群 (1)关闭Master节点 $ sbin/stop-master.sh (2)关闭Worker节点 $ sbin/stop-slaves.sh (3)关闭Hadoop集群 $ cd /usr/local/hadoop/ $ sbin/stop-all.sh 在Mas
您可能关注的文档
- -天津物业管理招投标服务中心.DOC
- -浒浦学校-常熟浒浦学校.DOC
- -平阳公共资源交易中心.DOC
- 2005级高职护理专业解剖生理学期末考试试卷-教务处.DOC
- 2007-2012高考精解精析专题11文言文阅读.DOC
- 2010年普通高等学校招生全国统一考试重庆卷理科综合能力测试试题.DOC
- 2010~2011学第一学期期末考试试卷.DOC
- 2011年中考历史考点解读.DOC
- 2011酒管菜点酒水知识课程授课计划-南华工商学院.DOC
- 2012年江苏中考思想品德试卷评析.DOC
- tìshǎojīnyīnggāi元帅母亲故乡床前询问一盆水替多少今天应该.PPT
- Springer出版理念始终专注科学-北京交通大学图书馆.PPT
- VB中常用的逻辑运算符是Not.PPT
- Whpa手印鉴定书-武汉警官职业学院司法鉴定技术专业.PPT
- Tf----高分子材料的成型温度.PPT
- XDZB2018-A-040招标文件-厦门大学资产处.DOC
- XDZB2018-A-057招标文件-厦门大学资产处.DOC
- XTHKB多路温控记录仪-XMTKA多功能温控仪.DOC
- ZYKC201321_A08_12国家示范校职业学校数字化资源共建共享计划.PPT
- 一表带用以连接至微小化之前述表心装置俾使该表心装置易于携带.PPT
原创力文档


文档评论(0)