网站大量收购闲置独家精品文档,联系QQ:2885784924

第6章 Spark SQL结构化数据处理引擎.pptxVIP

  1. 1、本文档共65页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

主讲人:xxx《Spark》大数据处理技术

SparkSQL结构化数据处理引擎第6章

第6章SparkSQL结构化数据处理引擎6.1SparkSQL的基础知识6.2DataFrame6.3Dataset6.4SparkSQL操作数据源本章小结

6.1SparkSQL的基础知识

6.1SparkSQL的基础知识SparkSQL是一个运行在Spark之上的Spark库。它为Spark提供了SQL接口,还让Spark更加易用,提升了开发者的生产力,让Spark应用运行得更快。1.SparkSQL的架构、特点和程序主入口等,2.SparkSQL的两个抽象编程模型DataFrame和DataSet。3.DataFrame和DataSet的创建方法和常用操作。4.介绍了使用SparkSQL操作MySQL数据源的方法。

6.1SparkSQL的基础知识SparkSQL是一个用来处理结构化数据的Spark组件。它可被视为一个分布式的SQL查询引擎。SparkSQL在数据兼容方面的发展,开发人员不仅可以直接处理RDD,也可以处理Parquet文件或者JSON文件,甚至可以处理外部数据库中的数据以及Hive中存在的表。SparkSQL的一个重要特点是其能够统一处理关系表和RDD,使得开发人员可以轻松地使用SQL命令进行外部查询和更复杂的数据分析。6.1.1SparkSQL的简介

SparkSQL的特点:(1)和SparkCore的无缝集成,可以在写RDD应用的时候,配置SparkSQL来完成逻辑实现。(2)统一的数据访问方式,SparkSQL提供标准化的SQL查询。(3)Hive的继承,SparkSQL通过内嵌的Hive或者连接外部已经部署好的Hive案例,实现了对Hive语法的继承和操作。(4)标准化的连接方式。6.1SparkSQL的基础知识

在SparkSQL当中,Spark为提供了两个操作SparkSQL的抽象编程模型,分别是DataFrame和DataSet。(1)DataFrame是一种以RDD为基础的带有Schema元信息的分布式数据集,类似于关系型数据库的数据表。(2)DataSet包含了DataFrame的功能,DataFrame表示为DataSet[Row],即DataSet的子集。DataFrame其实就是Dataset[Row],即DataFrame=DataSet[Row]。6.1.2SparkSQL数据抽象6.1SparkSQL的基础知识

从Spark2.0以上版本开始,SparkSQL模块的编程主入口点是SparkSession,SparkSession对象不仅为用户提供了创建DataFrame对象、读取外部数据源并转化为DataFrame对象以及执行sql查询的API,还负责记录着用户希望Spark应用在Spark集群运行的控制、调优参数,是Spark运行的基础。6.1SparkSQL的基础知识6.1.3程序主入口SparkSession

1.使用SparkSession对象读取文件成为DataFrame:(1)先通过SparkSession.builder()创建一个基本的SparkSession对象,(2)为该SaparkSQL应用配置一些初始化参数,例如设置应用的名称以及通过config方法配置相关运行参数。(3)然后使用该SparkSession对象,读取json文件成为DataFrame对象,再使用show()方法查看内容。代码及运行结果如下图所示6.1SparkSQL的基础知识

importorg.apache.spark.sql.SparkSessionvalsp=SparkSession.builder().appName(SparkSQLbasicexample).config(spark.some.config.option,some-value).getOrCreate()valdf=spark.read.json(file:///usr/local/Exam/employees.json)df.show()6.1SparkSQL的基础知识

2.使用默认SparkSession对象Spark读取文件成为DataFrame因为SparkSession对象是Spark运行的基础,是必不可少的。在进入spark-shell之后进行各种数据操作,可以声明创建一个SparkSession对象,也可以直接使用spark-shell提供的默认的SparkSession对象,即“Spark”。如图所示6.1SparkSQL的基础知识

6.2DataFrameSpar

文档评论(0)

xiadaofeike + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:8036067046000055

1亿VIP精品文档

相关文档