大数据架构flume-ng+Kafka+Storm+HDFS实时系统组合.docxVIP

  • 5
  • 0
  • 约6.46千字
  • 约 11页
  • 2016-11-29 发布于重庆
  • 举报

大数据架构flume-ng+Kafka+Storm+HDFS实时系统组合.docx

大数据架构flume-ngKafkaStormHDFS实时系统组合

个人观点:大数据我们都知道hadoop,但并不都是hadoop.我们该如何构建大数据库项目。对于离线处理,hadoop还是比较适合的,但是对于实时性比较强的,数据量比较大的,我们可以采用Storm,那么Storm和什么技术搭配,才能够做一个适合自己的项目。下面给大家可以参考。可以带着下面问题来阅读本文章:1.一个好的项目架构应该具备什么特点?2.本项目架构是如何保证数据准确性的?3.什么是Kafka?4.flume+kafka如何整合?5.使用什么脚本可以查看flume有没有往Kafka传输数据做软件开发的都知道模块化思想,这样设计的原因有两方面:一方面是可以模块化,功能划分更加清晰,从“数据采集--数据接入--流失计算--数据输出/存储”?1).数据采集负责从各节点上实时采集数据,选用cloudera的flume来实现2).数据接入由于采集数据的速度和数据处理的速度不一定同步,因此添加一个消息中间件来作为缓冲,选用apache的kafka3).流式计算对采集到的数据进行实时分析,选用apache的storm4).数据输出对分析后的结果持久化,暂定用mysql另一方面是模块化之后,假如当Storm挂掉了之后,数据采集和数据接入还是继续在跑着,数据不会丢失,storm起来之后可以继续进行流式计算;那么接下来我们来看下整体的架构图?详细介绍各个组件及安装配置:操作系统:ubuntuFlumeFlume是Cloudera提供的一个分布式、可靠、和高可用的海量日志采集、聚合和传输的日志收集系统,支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(可定制)的能力。下图为flume典型的体系结构:Flume数据源以及输出方式:Flume提供了从console(控制台)、RPC(Thrift-RPC)、text(文件)、tail(UNIX tail)、syslog(syslog日志系统,支持TCP和UDP等2种模式),exec(命令执行)等数据源上收集数据的能力,在我们的系统中目前使用exec方式进行日志采集。Flume的数据接受方,可以是console(控制台)、text(文件)、dfs(HDFS文件)、RPC(Thrift-RPC)和syslogTCP(TCP syslog日志系统)等。在我们系统中由kafka来接收。Flume下载及文档:/Flume安装:$tar zxvf apache-flume-1.4.0-bin.tar.gz/usr/local复制代码Flume启动命令:$bin/flume-ng agent --conf conf --conf-file conf/perties --name producer -Dflume.root.logger=INFO,console复制代码Kafkakafka是一种高吞吐量的分布式发布订阅消息系统,她有如下特性:通过O(1)的磁盘数据结构提供消息的持久化,这种结构对于即使数以TB的消息存储也能够保持长时间的稳定性能。高吞吐量:即使是非常普通的硬件kafka也可以支持每秒数十万的消息。支持通过kafka服务器和消费机集群来分区消息。支持Hadoop并行数据加载。kafka的目的是提供一个发布订阅解决方案,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是在现代网络上的许多社会功能的一个关键因素。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。 对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。kafka的目的是通过Hadoop的并行加载机制来统一线上和离线的消息处理,也是为了通过集群机来提供实时的消费。kafka分布式订阅架构如下图:--取自Kafka官网罗宝兄弟文章上的架构图是这样的其实两者没有太大区别,官网的架构图只是把Kafka简洁的表示成一个Kafka Cluster,而上面架构图就相对详细一些;Kafka版本:0.8.0Kafka下载及文档:/Kafka安装: tar xzf kafka-VERSION.tgz cd kafka-VERSION ./sbt update ./sbt package ./sbt assembly-package-dependency复制代码启动及测试命令:(1) start server bin/zookeeper-server-start.shconfig/perties bin/kafka-server-start.shconfig/perties复制代码这里是官网上的教程,kafka本身有内置zookeeper,但是我自己在实际部署中是使用单独的zookeeper集群,所以

文档评论(0)

1亿VIP精品文档

相关文档