- 1、本文档共12页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Spark配置
掌握Spark配置.
Spark配置01
Spark配置 配置历史日志服务器还需要在提交Spark任务的客户端上做一些简单的配置,这里我们提交Spark任务的客户端是mynode4节点,我们在mynode4节点的/software/spark-2.3.1/conf路径下配置spark-defaults.conf文件,操作如下:
Spark配置 spark-defaults.conf的配置详细内容如下:
Spark配置 spark.eventLog.enabled: 设置开启Spark的日志管理。
Spark配置 spark.eventLpress: 设置将Spark的日志进行压缩保存。
Spark配置 spark.eventLog.dir:设置Spark应用程序运行后将Spark的日志存在哪个路径下,这里我们将日志信息保存到HDFS中。这个路径需要提前手动在HDFS中创建。
Spark配置 spark.history.fs.logDirectory :设置当启动Spark的日志服务器时应该从哪个路径下恢复运行完成的Spark程序的完整日志。这个路径信息应该与spark.eventLog.dir路径保存一致。
Spark配置 spark.yarn.historyServer.address:设置的是当在Yarn Application管理页面中点击某个已运行完成的Spark 应用程序“Tracking UI”时对应跳转的日志地址。
Spark配置流程
文档评论(0)