Spark SQL数据源之通用的load和save操作.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
北风网项目实战培训 对于Spark SQL的DataFrame来说,无论是从什么数据源创建出来的DataFrame,都有一些共同的load和save操作。load操作主要用于加载数据,创建出DataFrame;save操作,主要用于将DataFrame中的数据保存到文件中。 Java版本 DataFrame df = sqlContext.read().load(users.parquet); df.select(name, favorite_color).write().save(namesAndFavColors.parquet); Scala版本 val df = sqlContext.read.load(users.parquet) df.select(name, favorite_color).write.save(namesAndFavColors.parquet) 通用的load和save操作 也可以手动指定用来操作的数据源类型。数据源通常需要使用其全限定名来指定,比如parquet是org.apache.spark.sql.parquet。但是Spark SQL内置了一些数据源类型,比如json,parquet,jdbc等等。实际上,通过这个功能,就可以在不同类型的数据源之间进行转换了。比如将json文件中的数据保存到parquet文件中。默认情况下,如果不指定数据源类型,那么就是parquet。 Java版本 DataFrame df = sqlContext.read().format(json).load(people.json); df.select(name, age).write().format(parquet).save(namesAndAges.parquet); Scala版本 val df = sqlContext.read.format(json).load(people.json) df.select(name, age).write.format(parquet).save(namesAndAges.parquet) 手动指定数据源类型 Spark SQL对于save操作,提供了不同的save mode。主要用来处理,当目标位置,已经有数据时,应该如何处理。而且save操作并不会执行锁操作,并且不是原子的,因此是有一定风险出现脏数据的。 Save Mode Save Mode 意义 SaveMode.ErrorIfExists (默认) 如果目标位置已经存在数据,那么抛出一个异常 SaveMode.Append 如果目标位置已经存在数据,那么将数据追加进去 SaveMode.Overwrite 如果目标位置已经存在数据,那么就将已经存在的数据删除,用新数据进行覆盖 SaveMode.Ignore 如果目标位置已经存在数据,那么就忽略,不做任何操作。 欢迎访问我们的官方网站

文档评论(0)

xingyuxiaxiang + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档