2015AWS在线技术峰会-分会场3-主题二-AWS大数据解决方案.pptxVIP

2015AWS在线技术峰会-分会场3-主题二-AWS大数据解决方案.pptx

  1. 1、本文档共77页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
AWS大数据分析与机器学习;云端大数据哲学:云和大数据是一个硬币的两面;1个实例算1,000小时 = 1,000个实例算1小时;;;;;;;;不断增长的大数据;大数据;S3 Kinesis DynamoDB RDS (Aurora);数据结构 查询类型 vs 存储技术;你的数据的温度是什么?;数据特征: 热数据, 温数据, 冷数据;;我应该使用什么数据存储;新兴的数据库层架构模式?;Amazon Kinesis;大数据;原始模式;事件处理类型;事件处理框架;事件处理框架;使用KCL的实时监控;;Data 驱动: Amazon S3;数据驱动: Amazon DynamoDB;AWS Lambda 从Kinesis读;;CREATE TABLE call_data_records ( start_time bigint, end_time bigint, phone_number STRING, carrier STRING, recorded_duration bigint, calculated_duration bigint, lat double, long double ) ROW FORMAT DELIMITED FIELDS TERMINATED BY , STORED BY com.amazon.emr.kinesis.hive.KinesisStorageHandler TBLPROPERTIES(=”MyTestStream);;高级抽象的离散流:Dstreams 表示为RDDs序列;处理 Amazon Kinesis 流;实时: 基于事件的处理;大数据;机器学习经典算法;Amazon ML介绍;;用户;大 数 据 参 考 架 构 ;Hadoop全系列与Spark全系列完美支持;使用AWS做大数据的行业;Sling 使用AWS存储和分析TB级的数据;VivaKi 在过去使用的是in-house 策略,不能够满足在高峰时段处理PB级数据的需求 将加载六个月的日志数据的时间从20天减少到6小时 将40个人的工作量减少到15人;NDN 使用AWS 为全球用户提供 6亿个视频;Financial Times 使用AWS 减少了 80%的基础设施成本;NTT DOCOMO 通过使用AWS为超过6千万的用户提供语音识别服务;Kellogg在使用AWS的五年当中在基础设施上节省了90万美元;Baylor 医学院使用AWS 加快分析和发现;每天抓取数十亿的网页和文档 使用Amazon Elastic MapReduce进行算法的挖掘和数据去重。 最终的结果是:在几小时内产生详细的,精确B2B技术栈;互联网;用户案例研究之一: AdRoll; 每天600亿请求 ; 最大100ms延迟 ;遍布全球;需要一些具体的东西;AdRoll AWS 架构;数据采集= 批量;竞价;用户案例研究之二: The Climate Corporation;The Climate Corporation – 农田的天气保险;1500亿土壤监控数据;进行仿真: 生成 10K 独特的情景 5万亿的数据点 20 TB数据 5-6千个节点的 Hadoop 集群;面临挑战 昂贵的数据??储(200TB!) 长数据导入时间 长数据处理时间 昂贵的计算资源(50000亿个数据采集点!) Hadoop集群设置和管理的复杂性(5-6千个群集节点!);;物联网: Dropcam;2009;S3 (静态数据) DynamoDB (元数据) EMR (活动识别) CloudFront (内容分发) EC2 (直播流);;用于连接设备数据的后端分析架构;http://wefeel.csiro.au/#/ ;总结;AWS大数据的独特之处;谢谢!

文档评论(0)

tangtianxu1 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档