- 1、本文档共14页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
孟繁兴
目录0102安装SparkSpark 示例
安装Spark1
安装Spark安装 Spark并使其运行非常简单。在下面的例子中,使用一个Ubuntu 服务器来安装和配置Spark。虽然可以从源代码构建,但这里我们从Spark的下载站点http:/l 下载预编译的二进制文件。虽然可以使用wget(也可以使用curl)从Apache软件镜像位置获取Hadoop压缩包,但是这里我们使用另外一种方法下载。
安装Spark1.首先,确保path中包含Java和 Python,并且将$JAVA_HOME环境变量的值设为Java的安装目录。2.前往Spark的下载页面/downloads.html.3选择最新的Spark版本,并确保是Hadoop 2.4或更高版本的预构建软件包。使用以下命令下载软件包,然后解压缩二进制文件。最后,为了简单起见,将包含二进制文件的文件夹重命名为spark。
安装Spark$ wget /spark-1.4.0-bin-hadoop2.4.tgz$.tar -zxf spark-1.4.0-bin-hadoop2.4.tgz$ sudo mv spark-1.4.0-bin.-hadoop2.4 spark请注意,最新的Spark二进制程序是使用最新并且稳定的Hadoop版本开发的。
安装Spark1.在/opt下创建一个组织目录,作为Spark 的安装目录(Linux的/opt目录存放附加软件的二进制文件)。完成后,把spark目录移动到新建目录下。$ sudo mkdir -p /opt/mycompany$ sudo mv spark /opt/mycompany2.把 spark 安装目录的拥有者改为root,把文件权限改为0755。$ sudo chown -R root :root /opt/mycompany /spark$ sudo chmod -R 755 /opt/mycompany/spark
安装Spark3.执行以下命令,创建一个spark配置目录的软链接。$ cd /opt/mycompany/spark$ sudo mv spark/conf/* /etc/spark$ sudo ln -s /etc/spark conf4.在.bashrc文件中将spark 路径添加到 PATH变量中。$ echo export PATH=$PATH :/opt/mycompany/spark/bin home/ hduser/.bashrc
安装Spark5.创建spark的日志和临时目录。$ sudo mkdir -p /var/log/spark$ sudo chown -R hduser: hduser /var/log/spark$ sudo mkdir /tmp/spark
安装Spark6.最后,配置Spark,使其和 Hadoop协同工作,并使用在上一步中创建的日志和临时目录。$ cd /etc/spark$ echo export HADOOP_CONF_DIR=/opt/mycompany/hadoop/etc/hadoop sparkenv.sh
安装Spark$ echo export YARN_CONF_DIR=/opt/mycompany/hadoop/etc/hadoop sparkenv.sh$ echo export SPARK_LOG_DIR=/var/log/spark spark-env.sh$ echo export SPARK_WORKER_DIR=/tmp/spark spark-env.sh
Spark 示例2
Spark 示例Spark自带了一些样例,可以使用其中一些样例来试运行新安装的Spark。Spark基于Scala、Java、Python和R的样例程序位于examples/src/main路径下。使用bin/run-example class [params]从安装目录运行样例程序。例如:./bin/run-example SparkPi 10Spark 使用spark-submit脚本(下一章会介绍)运行此程序。如果想使用Spark Python程序来执行相同的操作(计算Pi的值),可以这样做:./bin/spark-submit examples/src/main/python/pi.py 10
您可能关注的文档
- Spark技术流式处理模块.pptx
- Spark技术流式处理模块特性与原理.pptx
- Spark技术流式处理模块简介.pptx
- 二零二三年 优质公开课Spark技术简介.pptx
- 二零二三年 优质公开课Spark是什么.pptx
- 二零二三年 优质公开课Spark架构模型.pptx
- 二零二三年 优质公开课Spark生态介绍.pptx
- 二零二三年 优质公开课Spark生态介绍2.pptx
- 二零二三年 优质公开课Spark生态介绍3.pptx
- 二零二三年 优质公开课Spark生态圈.pptx
- 2025年广西中考地理二轮复习:专题四+人地协调观+课件.pptx
- 2025年广西中考地理二轮复习:专题三+综合思维+课件.pptx
- 2025年中考地理一轮教材梳理:第4讲+天气与气候.pptx
- 第5讲+世界的居民课件+2025年中考地理一轮教材梳理(商务星球版).pptx
- 冀教版一年级上册数学精品教学课件 第1单元 熟悉的数与加减法 1.1.6 认识1-9 第6课时 合与分.ppt
- 2025年中考一轮道德与法治复习课件:坚持宪法至上.pptx
- 2025年河北省中考一轮道德与法治复习课件:崇尚法治精神.pptx
- 八年级下册第二单元+理解权利义务+课件-2025年吉林省中考道德与法治一轮复习.pptx
- 精品解析:湖南省娄底市2019-2020学年八年级(上)期中考试物理试题(原卷版).doc
- 2025年中考地理一轮教材梳理:第10讲+中国的疆域与人口.pptx
文档评论(0)