网站大量收购独家精品文档,联系QQ:2885784924

spark安装部署解析.doc

  1. 1、本文档共14页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
spark安装部署解析

一、安装spark依赖的内容 1.JDK ? ? spark是由Scala语言编写的,但是运行的环境是jvm,所以需要安装JDK ? ? 编译过程:Python、java、Scala编写的代码 - scala编译器编译解释,生成class文件 - 由jvm负责执行class文件(与java代码执行一致) 2.scala ? ? 由于?spark是由Scala语言编写的,所以依赖Scala环境,且由Scala编写的执行代码也需要环境进行编译 3.配置SSH免密码登录 ? ? 集群节点无密码访问,与安装Hadoop时一致 4.安装Hadoop ? ? hdfs是作为spark的持久层,所以需要安装Hadoop,同时如果需要配置spark on yarn,则Hadoop需要安装yarn版本的 5.安装spark ? ? 安装spark,执行spark代码 二、JDK安装 1.下载地址 ? ? 用户可以在官网下载相应版本的JDK,本例使用JDK1.6,下载地址为:?/technetwork/java/javase/archive-139210.html ? ? development kit的bin包 2.下载后,在相应的目录下执行bin文件(假设JDK目录是?jdkpath) ? ? ./?jdk-6u45-linux-i586.bin 3.配置环境变量,修改/etc/profile文件增加以下内容 ? ?export ?JAVA_HOME= $jdkpath ? ?export ??PATH=$JAVA_HOME/bin:$PATH ? ?export ?CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/jre/lib/dt.jar:$JAVA_HOME/jre/lib/tools.jar 4.生效profile(或者重启机器) ? ? source /etc/profile 5.终端输入 java -version ? ? 输出类似如下说明安装成功 ? ?? 三、安装Scala 1.下载地址 ? ? 官网下载地址:/download/all.html ? ? 本例使用的是Scala 2.9.3 2.在安装目录下解压(假设Scala目录是scalapath) ? ? tar -zxvf?scala-2.9.3.tgz 3.配置环境变量,修改/etc/profile文件增加以下内容 ? ?export ?SCALA_HOME= $scalapath ? ?export ??PATH=$SCALA_HOME/bin:$PATH 4.生效profile(或者重启机器) ? ? source /etc/profile 四、配置SSH免密码登陆 首先,需要配置各个机器间的相互访问: 1、?配置ssh的自动登陆(在master机上): ????$?ssh-keygen?-t?dsa?-P?”?-f?~/.ssh/id_dsa ????完成后会在~/.ssh/(用户目录下)生成两个文件:id_dsa?和id_dsa.pub。 ????再把id_dsa.pub?追加到授权key?里面(当前并没有authorized_keys文件): ????$?cat?~/.ssh/id_dsa.pub??~/.ssh/authorized_keys ????完成后可以实现无密码登录本机: ????$?ssh?localhost 2、把master上的id_dsa.pub?文件追加到slaves机器的authorized_keys?内(?以slaves1节点为例): ????#拷贝master的id_dsa.pub文件(在master号机器上执行) ????$?scp?id_dsa.pub?redmap@:/home/redmap/ 注:(只需在主节点上运行ssh-kegen程序。其他节点的目录结构创建后,将刚才在主节点创建的keys通过scp拷贝到从节点的同样的目录上。) 我们在实际执行中是手动把id_dsa.pub拷贝到其他slaves的节点中,而不是用scp命令。最好是直接手动拷贝过去,这样文件的权限是一致的。 登录,进入用户目录下执行: ????$?cat?id_dsa.pub??.ssh/authorized_keys ????之后可以在master上不输入密码直接SSH访问slaves1 五、安装Hadoop2.x 1.下载Hadoop ? ? 下载地址?/hadoop/common/ ? ? 本文使用hadoop-2.5.2.tar 2.解压压缩包到指定目录 ? ? tar -zxvf hadoop-2.5.2.tar -C /usr/local (目录自定义) ? ? 如果需要

文档评论(0)

little28 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档