hadoop集群搭建文档-虚拟机版本.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
安装vmware,务必以管理员身份运行 操作系统(CentOS 6.5)的配置 准备工作:虚拟机安装三台linux 本次测试是 centos 6.5,(三台虚拟机的系统时间保持一致) *安装jdk(在另外一个文档中) *克隆虚拟机 *在vmware设置-克隆(虚拟机要关机,jdk要配置好) *选择克隆当前状态的虚拟机 **克隆完之后关机,点击重新生成mac地址 克隆2台虚拟机完成后:新的2台虚拟机,请务必依次修改3台虚拟机的ip地址和主机名称【建议三台主机名称依次叫做:master、node1、node2 】 1修改ip地址: 其他克隆的虚拟机实际上只需要改address地址就可以,后面两项不变 *修改主机名命令: vi /etc/sysconfig/network (三台都要修改) 上述修改完成后,请依次重启三台虚拟机:重启命令:reboot 重启完成后依次在虚拟机上执行下面命令: 1.设置ip(上述步骤)(三台都要操作) 使用命令 重启网卡:service network restart 2.关闭防火墙(三台都要操作),使用命令:service iptables stop 3.关闭防火墙的自动启动(三台都要操作),使用命令:chkconfig iptables off 设置主机名与ip的映射,修改配置文件命令(三台都要操作):vi /etc/hosts 将hosts文件拷贝到node1和node2节点 命令: scp /etc/hosts node1:/etc/hosts scp /etc/hosts node2:/etc/hosts 4.设置ssh免密码登录(只在Master 这台主机操作) 4.1主节点执行命令ssh-keygen -t rsa 产生密钥 一直回车 执行命令 将密钥拷贝到其他两个子节点,命令如下: ssh-copy-id -i node1 ssh-copy-id -i node2 实现免密码登录到子节点。 4.2 实现主节点master本地免密码登录 首先进入到/root 命令:cd /root 再进入进入到 ./.ssh目录下 命令:cd ./.ssh/ 然后将公钥写入本地执行命令: cat ./id_rsa.pub ./authorized_keys 如图 --------------------------------------(以下操作都在master 这台主机操作)------------------- 6将hadoop的jar包先上传到虚拟机/usr/local/soft目录下,主节点。可以使用xshell拖拽 7,解压。tar -zxvf hadoop-2.6.0.tar.gz 解压完后会出现 hadoop-2.6.0的目录 修改master中hadoop的一个配置文件/usr/local/soft/etc/hadoop/slaves 删除原来的所有内容,修改为如下 node1 node2 9,修改hadoop的几个组件的配置文件 进入/usr/local/soft/hadoop-2.6.0/etc/hadoop 目录下(请一定要注意配置文件内容的格式,可以直接复制过去黏贴。不要随意改) * 修改hadoop-env.sh文件 加上一句 export JAVA_HOME=/usr/local/soft/jdk1.8.0_171 ***修改 core-site.xml 将下面的配置参数加入进去修改成对应自己的 configuration property namefs.defaultFS/name valuehdfs://master:9000/value /property property namehadoop.tmp.dir/name value/usr/local/soft/hadoop-2.6.0/tmp/value /property property namefs.trash.interval/name value1440/value /property /configuration *** 修改 hdfs-site.xml 将dfs.replication设置为1 configuration property namedfs.replication/name value1/value /property

您可能关注的文档

文档评论(0)

yyons2019 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档