Spark Core技术平台详解.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
技术创新,变革未来 Spark Core技术平台详解 内容 Spark RDD Spark Operation RDD容错与持久化 Spark优化 Spark例子 Spark RDD Resilient Distributed Dataset (RDD): 分布式数据集 (分布在集群、已分区的) 存储在内存或磁盘上 只读的,不可变 自动重建 (容错) 有两类操作 transformations actions Spark Transformations and Actions transformations 通过其他RDD构建新的RDD map, filter, join lazy operation actions 返回计算结果或者保存到文件系统 count, collect, save triggers execution Spark Transformations and Actions Spark RDD Transformations Spark RDD Transformations Spark RDD Actions Spark Pair RDD Transformations Spark Pair RDD Transformations Spark RDD Lineage val inputRDD = sc.textFile(log.txt) val errorsRDD = inputRDD.filter(line = line.contains(error)) val warningsRDD = inputRDD.filter(line = line.contains(“warning)) badLinesRDD = errorsRDD.union(warningsRDD) println(Input had + badLinesRDD.count() + concerning lines) An RDD has enough information about how it was derived from other datasets(its lineage) RDD容错 通过RDD Lineage,重新计算丢失的数据,如 messages = textFile(...).filter(_.contains(“error”)) .map(_.split(‘\t’)) HadoopRDD FilteredRDD MappedRDD path = hdfs://… func = _.contains(...) func = _.split(…) RDD Persistence 缓存级别 memory_only (default), memory_and_disk等 API

文档评论(0)

智慧IT + 关注
实名认证
内容提供者

微软售前技术专家持证人

生命在于奋斗,技术在于分享!

领域认证该用户于2023年09月10日上传了微软售前技术专家

1亿VIP精品文档

相关文档