- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
四川国信安写给大数据开发初学者的建议
四川国信安写给大数据开发初学者的建议/大数据分析师这个岗位的诞生,是伴随着大数据的发展,企业在实际运营过程中产生的。那么,大数据分析师这个岗位在哪些细分行业存在呢?大数据分析的待遇如何呢?哪些人可以学习大数据分析呢?大数据分析这个岗位需要具备什么样的能力呢?接下来,国信安大数据课程老师给大家讲解相关问题!经常有初学者问,自己想往大数据方向发展,该学哪些技术,学习路线是什么样的,觉得大数据很火,就业很好,薪资很高。如果自己很迷茫,为了这些原因想往大数据方向发展,也可以,那么我就想问一下,你的专业是什么,对于计算机/软件,你的兴趣是什么?是计算机专业,对操作系统、硬件、网络、服务器感兴趣?是软件专业,对软件开发、编程、写代码感兴趣?还是数学、统计学专业,对数据和数字特别感兴趣……?其实这就是想告诉你的大数据的三个发展方向,平台搭建/优化/运维/监控、大数据开发/设计/架构、数据分析/挖掘。请不要问我哪个容易,哪个前景好,哪个钱多。?先扯一下大数据的4V特征:?数据量大,TB-PB?数据类型繁多,结构化、非结构化文本、日志、视频、图片、地理位置等;?商业价值高,但是这种价值需要在海量数据之上,通过数据分析与机器学习更快速的挖掘出来;?处理时效性高,海量数据的处理需求不再局限在离线计算当中。?现如今,正式为了应对大数据的这几个特点,开源的大数据框架越来越多,越来越强,先列举一些常见的:?文件存储:Hadoop HDFS、Tachyon、KFS离线计算:Hadoop MapReduce、Spark流式、实时计算:Storm、Spark Streaming、S4、HeronK-V、NOSQL数据库:HBase、Redis、MongoDB资源管理:YARN、Mesos日志收集:Flume、Scribe、Logstash、Kibana消息系统:Kafka、StormMQ、ZeroMQ、RabbitMQ查询分析:Hive、Impala、Pig、Presto、Phoenix、SparkSQL、Drill、Flink、Kylin、Druid分布式协调服务:Zookeeper集群管理与监控:Ambari、Ganglia、Nagios、Cloudera Manager数据挖掘、机器学习:Mahout、Spark MLLib数据同步:Sqoop任务调度:Oozie……?眼花了吧,上面的有30多种吧,别说精通了,全部都会使用的,估计也没几个。?就我个人而言,主要经验是在第二个方向(开发/设计/架构),且听听我的建议吧。?第一章:初识Hadoop?1.1学会百度与Google?不论遇到什么问题,先试试搜索并自己解决。?Google首选,翻不过去的,就用百度吧。?1.2参考资料首选官方文档?特别是对于入门来说,官方文档永远是首选文档。?相信搞这块的大多是文化人,英文凑合就行,实在看不下去的,请参考第一步。?1.3先让Hadoop跑起来?Hadoop可以算是大数据存储和计算的开山鼻祖,现在大多开源的大数据框架都依赖Hadoop或者与它能很好的兼容。?关于Hadoop,你至少需要搞清楚以下是什么:?Hadoop 1.0、Hadoop 2.0?MapReduce、HDFS?NameNode、DataNode?JobTracker、TaskTracker?Yarn、ResourceManager、NodeManager?自己搭建Hadoop,请使用第一步和第二步,能让它跑起来就行。?建议先使用安装包命令行安装,不要使用管理工具安装。?另外:Hadoop1.0知道它就行了,现在都用Hadoop 2.0.?1.4试试使用Hadoop?HDFS目录操作命令;上传、下载文件命令;提交运行MapReduce示例程序;?打开Hadoop WEB界面,查看Job运行状态,查看Job运行日志。?知道Hadoop的系统日志在哪里。?1.5你该了解它们的原理了?MapReduce:如何分而治之;HDFS:数据到底在哪里,什么是副本;Yarn到底是什么,它能干什么;NameNode到底在干些什么;ResourceManager到底在干些什么;?1.6自己写一个MapReduce程序?请仿照WordCount例子,自己写一个(照抄也行)WordCount程序,打包并提交到Hadoop运行。?你不会Java?Shell、Python都可以,有个东西叫Hadoop Streaming。?如果你认真完成了以上几步,恭喜你,你的一只脚已经进来了。?第二章:更高效的WordCount?2.1学点SQL吧?你知道数据库吗?你会写SQL吗?如果不会,请学点SQL吧。?2.2 SQL版WordCount?在1.6中,你写(或者抄)的WordCount一共有几行代码??给你看看我的:?SELECT word,
文档评论(0)