- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
大数据处理常用技术有哪些?
storm,hbase,hive,sqoop.spark,flume,zookeeper 如下
Apache Hadoop: 是Apache 开源组织的一个分布式计算开源框架,提
了一个分布式文件系统子项目(HDFS)和支持MapReduce 分布式计算的软
件架构。
Apache Hive: 是基于Hadoop 的一个数据仓库工具,可以将结构化的数据
文件映射为一张数据库表,通过类SQL 语句快速实现简单的MapReduce
统计,不必开发专门的MapReduce 应用,十分适合数据仓库的统计分析。
Apache Pig: 是一个基于Hadoop 的大规模数据分析工具,它提供的
SQL-LIKE 语言叫Pig Latin,该语言的编译器会把类SQL 的数据分析请求
转换为一系列经过优化处理的MapReduce 运算。
Apache HBase: 是一个高可靠性、高性能、面向列、可伸缩的分布式存储
系统,利用HBase 技术可在廉价PC Server 上搭建起大规模结构化存储集
群。
Apache Sqoop: 是一个用来将Hadoop和关系型数据库中的数据相互转移
的工具,可以将一个关系型数据库(MySQL ,Oracle ,Postgres 等)中的数
据导进到Hadoop 的HDFS 中,也可以将HDFS 的数据导进到关系型数据
库中。
Apache Zookeeper: 是一个为分布式应用所设计的分布的、开源的协调服
务,它主要是用来解决分布式应用中经常遇到的一些数据管理问题,简化
分布式应用协调及其管理的难度,提供高性能的分布式服务
Apache Mahout:是基于Hadoop 的机器学习和数据挖掘的一个分布式框
架。Mahout 用MapReduce 实现了部分数据挖掘算法,解决了并行挖掘的
问题。
Apache Cassandra:是一套开源分布式NoSQL 数据库系统。它最初由
Facebook 开发,用于储存简单格式数据,集Google BigTable 的数据模型
与Amazon Dynamo 的完全分布式的架构于一身
Apache Avro: 是一个数据序列化系统,设计用于支持数据密集型,大批
量数据交换的应用。Avro 是新的数据序列化格式与传输工具,将逐步取
代Hadoop 原有的IPC 机制
Apache Ambari: 是一种基于We 的工具,支持Hadoop 集群的供应、管
理和监控。
Apache Chukwa: 是一个开源的用于监控大型分布式系统的数据收集系
统,它可以将各种各样类型的数据收集成适合 Hadoop 处理的文件保存
在 HDFS 中 Hadoop 进行各种 MapReduce 操作。
Apache Hama: 是一个基于HDFS 的BSP (Bulk Synchronous Parallel)并
行计算框架, Hama 可用于包括图、矩阵和网络算法在内的大规模、大数
据计算。
Apache Flume: 是一个分布的、可靠的、高可用的海量日志聚合的系统,
可用于日志数据收集,日志数据处理,日志数据传输。
Apache Giraph: 是一个可伸缩的分布式迭代图处理系统, 基于Hadoop
平台,灵感来自 BSP (bulk synchronous parallel) 和 Google 的 Pregel。
Apache Oozie: 是一个工作流引擎服务器, 用于管理和协调运行在
Hadoop 平台上(HDFS、Pi 和MapReduce)的任务。
Apache Crunch: 是基于Google 的FlumeJava 库编写的Java 库,用于创
建MapReduce 程序。与Hive,Pi 类似,Crunch 提供了用于实现如连接
数据、执行聚合和排序记录等常见任务的模式库
Apache Whirr: 是一套运行于云服务的类库(包括Hadoop),可提供高
度的互补性。Whir
您可能关注的文档
最近下载
- AIAG CP Control Plan (1st edition) 控制计划 第一版.pdf
- 综采工作面工程质量验收标准.pdf VIP
- 物料的验证培训课件.pptx VIP
- 部编版语文一年级上册口语交际《我会想办法》课件.pptx VIP
- BEC高级全真试题及答案详解.pdf VIP
- 病历书写规范培训试题及答案.doc VIP
- 节目表演-我爱上班台词(四套文案可选).doc VIP
- 2025年安徽省【中考数学】试题(含解析).pdf
- 【10套】国家开放大学2015年7月至2020年1月《1079高等代数专题研究》期末考试真题及答案.pdf VIP
- 特斯拉超级工厂项目(一期)第二阶段环境影响报告书.pdf VIP
原创力文档


文档评论(0)