细细品味Hadoop_Hadoop集群(第14期)_Hive应用开发.pdfVIP

细细品味Hadoop_Hadoop集群(第14期)_Hive应用开发.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
细细品味Hadoop_Hadoop集群(第14期)_Hive应用开发,细细品味hadoop,hadoophive,hadoophive安装,hadoophivehbase,hadoop2.6hive,hadoophivemysql,hivehadoop版本,hive和hadoop,hadoop2.2.0hive

细细品味 Hadoop ——Hadoop 集群(第 14 期) 精 华 集 锦 csAxp 虾皮工作室 /xia520pi/ 2012 年 7 月 3 日 创建时间:2012/3/24 修改时间:2012/3/26 修改次数:0 Hadoop 集群(第14 期) ——Hive 应用开发 1、Hive的服务 Hive 不仅仅是一个shell,通过配置,它可以提供诸如Thrift 服务器、Web 接口、元数 据和JDBC/ODBC 服务,具有强大的功能和良好的可扩展性。 1.1 Hive Shell Hive Shell 是默认的服务,提供命令行接口,可以在此命令行上直接编写HiveQL 语句 执行,每条语句以分号结束,也可以在Hive Shell 上执行Hive 自带的管理命令,例如导入 jar 包,加入临时环境变量等操作。 1)执行Hive 语句 ? 执行查询语句 hive select name from xp; 从上面的得知,在执行“select * from xp; ”时,可以看到启动了一个MapReduce job , 建好表导入数据后,就可以浏览与Hive 相关的目录。 ? 执行HDFS 文件操作 在Hive 的shell 上使用dfs 命令可以查看HDFS 上的文件。 HDFS 上的“/user/hive/warehouse ”目录是Hive 的数据仓库目录,每个表对应一个以 表明命名的目录,目录下存放导入的文件、分区目录、桶目录等数据文件。Hive 的查询日 志默认保存在本地文件系统的“/tmp/ ”目录下,Hive 的MapReduce 执行计划保 河北工业大学——软件工程与理论实验室 编辑:虾皮 1 创建时间:2012/3/24 修改时间:2012/3/26 修改次数:0 存在本地的“/tmp/ /hive ”中。这三个目录可以分别通过属性: ? hive.metastore.metadb.dir :(HDFS 上的)数据目录 ? hive.querylog.location :查询日志存放目录 ? hive.exec.scratcher :(HDFS 上的)临时文件目录 2 )设置和查看临时变量 备注:设置只在当前会话有效,方便切换Hive 的执行环境。 hive set hdfs://:9000 hive set ; 3 )导入jar 包(jar 包存在) hive add jar hivejar.jar Added hivejar.jar to class path Added resource:hivejar.jar 4 )创建函数(类存在) hive create temporary function udfTest as ‘com.cstore.udfExample’; 当然也可以在本地系统的命令行运行Hive 的shell 。 $ hive –e ‘select * from xp’ (执行HiveQL 语句) $ hive –config /hive-0.8.1/conf (重新载入新的配置文件) $ hive –service hiveserver (启动服务) 1.2 JDBC/ODBC支持 Hive 提供了对JDBC 和ODBC 的支持,这一特性使基于JDBC/ODBC 的应用能力以很 小的代价平滑过渡到Hive 平台。 河北工业大学——软件工程与理论实验室 编辑:虾皮 2 创建时间:2012/3/24 修改时间:2012/3/26 修改次数:0 1)JDBC 在Hive 的jar 包中,“org.apache.hadoop.hive.jdbc.HiveDriver ”负责提供JDBC 接口, 客户端程序有了这个包,就可以把Hive 当成一个数据库来使用,大部分的操作与对传统数 据库的操作相同,Hive 允许支持JDBC 协议的应用程序连接到Hive 。当Hive 在指定端口启 动hiveserver 服务后,客户端通过Java 的Thrift 和Hive 服务器进行通信,连接过程如下: ? 开启hiveserver 服务 $ hive –service hiveserver 50000 (50000 ) ? 建立与Hive 的连接 Class.forName “org.apache.hadoop.hive.jdbc.HiveDriver” ; Connection con DriverManager.getConnection “jdbc:hive://ip:50000/default,”hive”,”hadoop” 默认只能连接到default,通过上面的两行代码建立连接后,

文档评论(0)

wdhao + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档