30-大数据分析与内存计算.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
大数据分析与内存计算 第二章 Spark 的环境搭建 课前回顾 Spark 安装准备及相关配置 ( 1 ) Spark 安装需要的软件 ( 2 ) SSH 免密码登陆设置 ( 3 ) Spark 相关配置 0 3 2.3 集群启动与关闭 Spark 2.3 Spark 集群启动与关闭 Spark 运行模式 1. 在 mesos 或者 yarn 集群管理器上部署运行 2. 在 standalone 和 local 的模式上部署运行。 2.3 Spark 集群启动与关闭 (1) 启动 Spark standalone 集 cd $SPARK_HOME/sbin ./start-all.sh 运行成功结果如图所示: 图 2-12 启动 Spark standalone 集群 2.3 Spark 集群启动与关闭 启动中遇到的问题及解决方法 在启动的时候如果出现需要输入密码的情况,这种情况是因为部分文件没有 设置权限。在启动的过程中会生成新的文件夹,只要需要对 Spark 目录进行重 新设置权限即可。 sudo chmod – R 777 /opt/spark-2.3.0-bin-hadoop2.7 2.3 Spark 集群启动与关闭 2.3 Spark 集群启动与关闭 (2) 关闭集群 集群的关闭与启动相似,同样进入到 本关闭集群。 运行 stop-all.sh : ./stop-all.sh sbin 文件夹中,使用 stop-all.sh 脚 0 4 2.4 群 应用提交到集 Spark 2.4 Spark 应用提交到集群 集群启动完毕后,可以使用 spark-submit 命令进行任务的提交。进入到 spark- submit 文件所在的目录中: cd $SPARK_HOME/bin 执行以下命令提交集群: spark-submit --master spark://master:7077 --deploy-mode client --executor-memory 512M --total-executor-cores 4 demo.py 2.4 Spark 应用提交到集群 spark-submit 参数的详细说明如下: spark-submit: 提交任务命令 --master spark://master:7077 --deploy-mode client --executor-memory 512M --total-executor-cores 4 demo.py // 提交集群的地址 // 部署模式为 client 模式 // 设置每个执行单元使用 512Mb 的内存空间 // 每个执行单元为 4 个核 // 实际提交的应用程序,具体以实际为准 0 5 监控页面 2.5 Spark web 2.5 Spark web 监控页面 应用的查看:

文档评论(0)

jinzhuang + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档