- 1、本文档共14页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
孟繁兴
目录0102安装SparkSpark 示例
安装Spark1
安装Spark安装 Spark并使其运行非常简单。在下面的例子中,使用一个Ubuntu 服务器来安装和配置Spark。虽然可以从源代码构建,但这里我们从Spark的下载站点http:/l 下载预编译的二进制文件。虽然可以使用wget(也可以使用curl)从Apache软件镜像位置获取Hadoop压缩包,但是这里我们使用另外一种方法下载。
安装Spark1.首先,确保path中包含Java和 Python,并且将$JAVA_HOME环境变量的值设为Java的安装目录。2.前往Spark的下载页面/downloads.html.3选择最新的Spark版本,并确保是Hadoop 2.4或更高版本的预构建软件包。使用以下命令下载软件包,然后解压缩二进制文件。最后,为了简单起见,将包含二进制文件的文件夹重命名为spark。
安装Spark$ wget /spark-1.4.0-bin-hadoop2.4.tgz$.tar -zxf spark-1.4.0-bin-hadoop2.4.tgz$ sudo mv spark-1.4.0-bin.-hadoop2.4 spark请注意,最新的Spark二进制程序是使用最新并且稳定的Hadoop版本开发的。
安装Spark1.在/opt下创建一个组织目录,作为Spark 的安装目录(Linux的/opt目录存放附加软件的二进制文件)。完成后,把spark目录移动到新建目录下。$ sudo mkdir -p /opt/mycompany$ sudo mv spark /opt/mycompany2.把 spark 安装目录的拥有者改为root,把文件权限改为0755。$ sudo chown -R root :root /opt/mycompany /spark$ sudo chmod -R 755 /opt/mycompany/spark
安装Spark3.执行以下命令,创建一个spark配置目录的软链接。$ cd /opt/mycompany/spark$ sudo mv spark/conf/* /etc/spark$ sudo ln -s /etc/spark conf4.在.bashrc文件中将spark 路径添加到 PATH变量中。$ echo export PATH=$PATH :/opt/mycompany/spark/bin home/ hduser/.bashrc
安装Spark5.创建spark的日志和临时目录。$ sudo mkdir -p /var/log/spark$ sudo chown -R hduser: hduser /var/log/spark$ sudo mkdir /tmp/spark
安装Spark6.最后,配置Spark,使其和 Hadoop协同工作,并使用在上一步中创建的日志和临时目录。$ cd /etc/spark$ echo export HADOOP_CONF_DIR=/opt/mycompany/hadoop/etc/hadoop sparkenv.sh
安装Spark$ echo export YARN_CONF_DIR=/opt/mycompany/hadoop/etc/hadoop sparkenv.sh$ echo export SPARK_LOG_DIR=/var/log/spark spark-env.sh$ echo export SPARK_WORKER_DIR=/tmp/spark spark-env.sh
Spark 示例2
Spark 示例Spark自带了一些样例,可以使用其中一些样例来试运行新安装的Spark。Spark基于Scala、Java、Python和R的样例程序位于examples/src/main路径下。使用bin/run-example class [params]从安装目录运行样例程序。例如:./bin/run-example SparkPi 10Spark 使用spark-submit脚本(下一章会介绍)运行此程序。如果想使用Spark Python程序来执行相同的操作(计算Pi的值),可以这样做:./bin/spark-submit examples/src/main/python/pi.py 10
您可能关注的文档
最近下载
- 2022年考博英语-中国艺术研究院考前模拟强化练习题74(附答案详解).docx VIP
- 山东淄博卷(“暖”起来;从“阅”到乐,悦,跃,月,钥,越……)-2024年中考语文作文真题解读.docx
- 省级优秀课件人教版数学四年级上册第8单元数学广角——优化.pptx
- 四川省成都市2023-2024学年度上学期期末考试高一语文试题(解析版).doc VIP
- 第8课 第一次世界大战(导图上课)公开课教案教学设计课件资料.pptx VIP
- 全自动凯氏定氮仪的工作原理及操作流程.pdf
- 2024中小学校公开招聘简章.pdf
- GB 1499.2-2024钢筋混凝土用钢 第2部分:热轧带肋钢筋-副本.pdf
- 学堂在线海上求生与救生期末考试答案.docx
- 小学美术手工《折纸》ppt课件.pptx
文档评论(0)