- 1、本文档共11页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
SparkStreaming的架构;Spark Streaming处理的
数据流图;/01; Spark Streaming对应的批数据,在Spark内核对应一个RDD实例,因此,对应流数据的DStream可以看成是一组RDDs,即RDD的一个序列。通俗点理解的话,在流数据分成一批一批后,通过一个先进先出的队列。
然后?Spark Engine从该队列中依次取出一个个批数据,把批数据封装成一个RDD,然后进行处理,这是一个典型的生产者消费者模型。
; Spark Streaming在内部的处理机制是,接收实时流的数据,并根据一定的时间间隔拆分成一批批的数据,然后通过Spark Engine处理这些批数据,最终得到处理后的一批批结果数据。
;/02; SparkStreaming是一个对实时数据流进行高通量、容错处理的流式处理系统。
可以对多种数据源(如Kdfka、Flume、Twitter、Zero和TCP?套接字)进行类似Map、Reduce和Join等复杂操作,并将结果保存到外部文件系统、数据库或应用到实时仪表盘。
; 计算流程:Spark Streaming是将流式计算分解成一系列短小的批处理作业。
这里的批处理引擎是Spark Core,也就是把Spark Streaming的输入数据按照batch size(如1秒)分成一段一段的数据(Discretized Stream),每一段数据都转换成Spark中的RDD(Resilient Distributed Dataset)。
然后将Spark Streaming中对DStream的Transformation操作变为针对Spark中对RDD的Transformation操作,将RDD经过操作变成中间结果保存在内存中。; 整个流式计算根据业务的需求可以对中间的结果进行叠加或者存储到外部设备。下图显示了Spark Streaming的整个流程。
;1.Spark Streaming处理的数据流图2.SparkStreaming的架构
您可能关注的文档
最近下载
- 王戎不取道旁李课件(共29张PPT).ppt VIP
- 5. 山东省互联网医疗服务监管平台对接说明v3.0(2).pdf
- 2024广西公需课高质量共建“一带一路” 谱写人类命运共同体新篇章答案.docx VIP
- 在线网课学习课堂《高级大数据系统》单元测试考核答案.docx
- 安娜卡列尼娜课件.pptx
- 在线网课《大学生心理健康》课后单元测试答案.docx
- 使用javafx+构建gui+教程.pdf
- 24秋江苏开放大学毛泽东思想和中国特色社会主义理论体系概论过程性考核1.doc
- 2025华医网继续教育静脉输液通路—输液港的临床应用规范题库答案.docx VIP
- 《室内装饰构造与施工图深化》第二章 室内装饰地面构造与施工图深化 教学课件.ppt VIP
文档评论(0)