环境搭建 Spark 1.5伪分布式集群搭建.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
北风网大数据实战培训 1、将课程提供的scala-2.11.4.tgz使用WinSCP拷贝到/usr/local/src目录下。 2、对scala-2.11.4.tgz进行解压缩:tar -zxvf scala-2.11.4.tgz 3、对scala目录进行重命名:mv scala-2.11.4 scala 4、配置scala相关的环境变量 vi ~/.bashrc export SCALA_HOME=/usr/local/scala export PATH=$SCALA_HOME/bin source ~/.bashrc 5、查看scala是否安装成功:scala -version 安装scala 2.11.4 1、将spark-1.5.1-bin-hadoop2.4.tgz使用WinSCP上传到/usr/local/src目录下。 2、解压缩spark包:tar -zxvf spark-1.5.1-bin-hadoop2.4.tgz。 3、重命名spark目录:mv spark-1.5.1-bin-hadoop2.4 spark 4、修改spark环境变量 vi ~/.bashrc export SPARK_HOME=/usr/local/spark export PATH=$SPARK_HOME/bin export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib source ~/.bashrc 安装spark客户端 1、cd /usr/local/spark/conf 2、cp spark-env.sh.template spark-env.sh 3、vi spark-env.sh export JAVA_HOME=/usr/java/latest export SCALA_HOME=/usr/local/scala export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export SPARK_MASTER_IP=07 export SPARK_WORKER_MEMORY=1g 修改spark-env.sh文件 1、在spark目录下的sbin目录执行./start-all.sh 2、使用jsp和8080端口可以检查集群是否启动成功 3、进入spark-shell查看是否正常 4、编写一个简单的wordcount程序,检验一下spark是否正常工作 5、通过4040端口,看一下spark web ui界面 启动spark集群 欢迎访问我们的官方网站

文档评论(0)

a13355589 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档