尚学堂hadop大数据培训DStream实时流数据处理.docVIP

尚学堂hadop大数据培训DStream实时流数据处理.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
尚学堂hadop大数据培训DStream实时流数据处理

北京尚学堂提供 DStream 如果要用一句话来概括Spark Streaming的处理思路的话,那就是将连续的数据持久化,离散化,然后进行批量处理。 让我们来仔细分析一下这么作的原因。 离散化?数据源源不断的涌进,永远没有一个尽头,就像周星驰的喜剧中所说“崇拜之情如黄河之水绵绵不绝,一发而不可收拾”。既然不能穷尽,那么就将其按时间分片。比如采用一分钟为时间间隔,那么在连续的一分钟内收集到的数据集中存储在一起。 批量处理?将持久化下来的数据分批进行处理,处理机制套用之前的RDD模式 DStream可以说是对RDD的又一层封装。如果打开DStream.scala和RDD.scala,可以发现几乎RDD上的所有operation在DStream中都有相应的定义。 作用于DStream上的operation分成两类 1. Transformation 2. Output 表示将输出结果,目前支持的有print, saveAsObjectFiles, saveAsTextFiles, saveAsHadoopFiles DStreamGraph 有输入就要有输出,如果没有输出,则前面所做的所有动作全部没有意义,那么如何将这些输入和输出绑定起来呢?这个问题的解决就依赖于DStreamGraph,DStreamGraph记录输入的Stream和输出的Stream。 ??private?val?inputStreams ?new?ArrayBuffer[InputDStream[_]] ??private?val?outputStreams ?new?ArrayBuffer[DStream[_]] ??var?rememberDuration: Duration ?null??var?checkpointInProgress ?false outputStreams中的元素是在有Output类型的Operation作用于DStream上时自动添加到DStreamGraph中的。 outputStream区别于inputStream一个重要的地方就是会重载generateJob. 初始化流程 StreamingContext是Spark Streaming初始化的入口点,主要的功能是根据入参来生成JobScheduler 如果流数据源来自于socket,则使用socketStream。如果数据源来自于不断变化着的文件,则可使用fileStream StreamingContext.start 数据处理 以socketStream为例,数据来自于socket。 SocketInputDstream启动一个线程,该线程使用receive函数来接收数据 def?receive var?socket: Socket ?null try logInfo Connecting to ?+ host +?:?+ port socket ?newSocket host, port logInfo Connected to ?+ host +?:?+ port val?iterator bytesToObjects socket.getInputStream while !isStopped iterator.hasNext store iterator.next logInfo Stopped receiving restart Retrying connecting to ?+ host +?:?+ port catch case?e: .ConnectException restart Error connecting to ?+ host +?:?+ port, e case?t: Throwable restart Error receiving data, t finally if? socket ! ?null socket.close logInfo Closed socket to ?+ host +?:?+ port 接收到的数据会被先存储起来,存储最终会调用到BlockManager.scala中的函数,那么BlockManager是如何被传递到StreamingContext的呢?利用SparkEnv传入的,注意StreamingContext构造函数的入参。 处理定时器 数据的存储有是被socket触发的。那么已经存储的数据被真正的处理又是被什么触发的呢? 记得在初始化StreamingContext的时候,我们指定了一个时间参数,那么用这个参数会构造相应的重复定时器,一旦定时器超时,调用generateJobs函数。 private?val?timer ?new?RecurringTimer clock,

文档评论(0)

jiqinyu2015 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档