大数据实时分析n案例.docxVIP

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
永洪科技大数据实时分析永洪科技基于自有技术研发的一款数据存储、数据处理的软件Yonghong Z-Data Mart是一款专业的数据集市软件。Hadoop Map Reduce适合通过批处理方式访问海量数据,但无法满足海量数据的实时处理的需求。实时商业智能建设的主要目标是支持实时决策,这就对海量数据处理的即时、快速、稳定提出了更高的要求。Yonghong Z-Suite Map Reduce解决方案更好的实现了这些特点:完全放弃了心跳机制,采用实时信息交换底层,进行实时的Map-Reduce任务分配与执行。这一信息交换底层能够保障几十甚至上百个节点之间的高效信息交换,使得实时的Map-Reduce任务分配与执行能够在毫秒级完成任务分解与派发工作。Map Reduce任务服务于海量数据处理,任务清晰。通过在Map Node中预先部署Map的数据处理和数据分析功能的代码文件集,在Reduce节点中预先部署Reduce的数据处理和数据分析功能的代码文件集,在运行Job之前,每个Map和Reduce节点已经具备了相应的数据处理和分析能力。这种方式极大地减少了实时传输和部署的时长。直接在各节点之间传输中间结果和最终结果(Stream Computing)。由于Map-Reduce采用了具有自主知识产权的高效率的实时信息交换底层,这一底层保障了大量传输Map的中间结果、Reduce的中间结果及最终结果的实效性。本文档主要介绍两个案例,一个是互联网行业大数据案例,一个是电信行业的大数据案例。互联网大数据案例案例背景某著名咨询公司用户行为分析系统面临问题:实时分析的数据量大,基于Hive 的分析系统不够实时,但预算有限。问题解决步骤1. 首先提出了测试方案:90 天细节数据约50 亿条导入YonghongDM,再定制Dashboard 分析。2. 简单测试:先通过5 台PCServer,导入1-2 天的数据,演示如何ETL,如何做简单应用。3. 按照提出的测试方案开始导入90 天的数据,在导入数据中解决了如下问题: 解决步长问题,有效访问次数,在几个分组内,停留时间大于30 分钟。 解决HBase 数据和SQLServer 数据的关联问题。 解决分组太多,Span 过多的问题。4. 数据源及数据特征分析: 90 天的数据,Web 数据7 亿,App 数据37 亿,总估计在50 亿。 每个表有20 多个字段,一半字符串类型,一半数值类型,一行数据估计2000Byte。 每天5000 万行,原始数据每天100G,100 天是10T 的数据。 抽取样本数据100 万行,导入数据集市,数据量在180M。 50 亿数据的若全部导入需要900G 的量,压缩比在11:1。 假设同时装载到内存中分析的量在1/3,那总共需要300G 的内存。5. 设计方案: 总共配制需要300G 的内存。 硬件:5 台PC Server,每台内存:64G,4 CPU 4 Core。 机器角色:一台Naming、Map,一台Client、Reduce、Map,其余三台都是Map。6. ETL 过程: 历史数据集中导:每天的细节数据和SQL Server 关联后,打上标签,再导入集市。 增量数据自动导:先删除近3 天的数,再导入近3 天的数。 维度数据被缓存;细节数据按照日期打上标签,跟缓存的维度数据关联后入集市;根据系 统配置调优日期标签来删除数据;清洗出有意义的字段。7. 系统配置调优: 内部管理内存参数: mem.proc.count=8 mem.serial.mem=5120 mem.result.mem=10240 JVM 内存管理参数配置: JAVA_OPTS=-XX:NewRatio=3 -XX:SurvivorRatio=1 -XX:+UseParNewGC -XX:+UseConcMarkSweepGC -XX:MaxGCPauseMillis=6000 -XX:GCTimeRatio=19 -XX:ParallelGCThreads=16 -XX:+UseCMSCompactAtFullCollection -XX:CMSFullGCsBeforeCompaction=1 -XX:CMSInitiatingOccupancyFraction=80 -XX:+CMSClassUnloadingEnabled -XX:-CMSParallelRemarkEnabled -XX:SoftRefLRUPolicyMSPerMB=0 -XX:+PrintHeapAtGC-XX:+PrintGCDetails -Xms61440m-Xmx61440m-Djava.awt.headless=true8. 前端展现:互联网用户行为分析: 浏览器分析:运行时

文档评论(0)

wofu + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档