《大数据技术》Hadoop安装和HDFS常见的操作实验报告二.pdfVIP

《大数据技术》Hadoop安装和HDFS常见的操作实验报告二.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

《大数据技术》Hadoop安装和HDFS常见的操作实验报告

一、实验目的:

1.掌握Linux虚拟机的安装方法;

2.掌握一些常用的Linux命令;

3.掌握Hadoop伪分布安装方法;

4.掌握Hadoop的常用操作。

5.熟练使用HDFS常用的Shell命令;

6.熟悉HDFS操作常用的JavaAPI。

二、实验平台

1.操作系统:Linux(建议Ubuntu16.04或Ubuntu18.04);

2.Hadoop版本:3.1.3。

3.JDK版本:1.8;

4.JavaIDE:Eclipse。

二、实验内容:

1.熟悉常用的Hadoop操作

(1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为

“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop”

(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表

(3)将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test

(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下

2.编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:

(1)向HDFS中上传任意文本文件,如果指定的文件在HDFS中已经存在,则由用户来指定

是追加到原有文件末尾还是覆盖原有的文件;

(2)从HDFS中下载指定文件,如果本地文件与要下载的文件名称相同,则自动对下载的文

件重命名;

(3)将HDFS中指定文件的内容输出到终端中;

(4)显示HDFS中指定的文件的读写权限、大小、创建时间、路径等信息;

(5)给定HDFS中某一个目录,输出该目录下的所有文件的读写权限、大小、创建时间、路

径等信息,如果该文件是目录,则递归输出该目录下所有文件相关信息;

(6)提供一个HDFS内的文件的路径,对该文件进行创建和删除操作。如果文件所在目录不

存在,则自动创建目录;

(7)提供一个HDFS的目录的路径,对该目录进行创建和删除操作。创建目录时,如果目录

文件所在目录不存在,则自动创建相应目录;删除目录时,由用户指定当该目录不为空时是否还删

除该目录;

(8)向HDFS中指定的文件追加内容,由用户指定内容追加到原有文件的开头或结尾;

(9)删除HDFS中指定的文件;

(10)在HDFS中,将文件从源路径移动到目的路径。

3.编程实现一个类“MyFSDataInputStream”,该类继承“org.apache.hadoop.fs.FSDataInput

Stream”,要求如下:实现按行读取HDFS中指定文件的方法“readLine()”,如果读到文件末尾,

则返回空,否则返回文件一行的文本。

三、实验过程与结论:(经调试正确的源程序(核心部分)和程序的运行结果)

1.熟悉常用的Hadoop操作

(1)使用hadoop用户登录Linux系统,启动Hadoop(Hadoop的安装目录为

“/usr/local/hadoop”),为hadoop用户在HDFS中创建用户目录“/user/hadoop”

(2)接着在HDFS的目录“/user/hadoop”下,创建test文件夹,并查看文件列表

(3)将Linux系统本地的“~/.bashrc”文件上传到HDFS的test文件夹中,并查看test

(4)将HDFS文件夹test复制到Linux系统本地文件系统的“/usr/local/hadoop”目录下

2.编程实现以下功能,并利用Hadoop提供的Shell命令完成相同任务:

(1)

(2)

(3)

(4)

(5)

(6)

(7)

(8)

文档评论(0)

135****5548 + 关注
官方认证
文档贡献者

各类考试卷、真题卷

认证主体社旗县兴中文具店(个体工商户)
IP属地河南
统一社会信用代码/组织机构代码
92411327MAD627N96D

1亿VIP精品文档

相关文档