Linux下的Hadoop--分布式模式的部署.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Linux下的Hadoop--分布式模式的部署

2009年10月30日 星期五 12:49 Linux下的Hadoop--分布式模式的部署   选用软件版本: 1. jdk 0 2. hadoop-0.19.1 1. 准备Host环境和配置ssh 主节点IP是47,子节点1是6,修改两个节点的/etc/hosts文件: # /etc/hosts (for master AND slave) 47 master 6 slave 分别在两台机器上添加用户hadoop   ①在master上: groupadd -g 2000 hadoop useradd -u 2000 -g hadoop hadoop su - hadoop ssh-keygen -t dsa -P -f ~/.ssh/identity Generating public/private dsa key pair. Created directory /home/hadoop/.ssh. Your identification has been saved in /home/hadoop/.ssh/identity. Your public key has been saved in /home/hadoop/.ssh/identity.pub. The key fingerprint is: 44:e5:05:16:a2:33:95:23:3e:54:f8:c7:f1:e5:bc:24 hadoop@localhost.localdomain mv .ssh/identity.pub .ssh/authorized_keys ssh master输入yes接受自己的公钥,看能否自动登录,然后 ssh slave输入yes接受36的公钥。 The authenticity of host slave (6) cant be established. RSA key fingerprint is 40:39:05:3d:3e:6c:9d:1f:8c:d1:40:68:67:65:86:41. Are you sure you want to continue connecting (yes/no)? yes Warning: Permanently added slave,6 (RSA) to the list of known hosts. hadoop@slaves password: cat .ssh/authorized_keys ssh-dss AAAAB3NzaC1kc3MAAACBAM4FxFo0oXwj04yyOYQsFe4IeNU/ClXOVxXtTQyQlZHse/Cl9tzKzz rDxfKkM8K/wjRH3o2gppk2L2VO7SAd8ZYarCKQzCQjQzMa7UcsjQBth9bzde/rafDO2izHyN5d M9oHMD3p4H9f672pPO0n8oYShrA48ndBn0N8TucrT0t9AAAAFQCy+pU9QOOD4lvp/qipQbJI2J X7kQAAAIB4lwMLhjcJmtTiQqxUruTm4WgdOhlVz9HJPqv1FipZEhAVIk5xG9X93wUee3zVN+6v 2mOuJlXAiOAbFeY5ba7EgSaL8RAAhUhzFiTNar6jtZJgy36TzOoECL99leX+F9EpYnCyN7zMHj uOE5nFPV6NgsDJDjt2EPEdoEvyeMz3iAAAAIEAsoGk1TxRN12zq5HjFsPUiwVCKKoi4NKlwCHz UGNwE875je1ZHOm32SNUzpfwKGT8PR+d530aVzUGTmT7On5mUlD5ZIHPgjn9zXPFZ/ZMV9XAox hHBNbkCrQlwLgEE7C3nK3xlEGLymdLxGRZpiCctdlromNqNhr33mzJnWWnVPI= hadoop@localhost.localdomain 复制备用   ②在slave上: groupadd -g 2000 hadoop useradd -u 2000 -g hadoop hadoop su - hadoop mkdir .ssh chmod 700 .ssh vi .ssh/authorized_keys 把从master机器上拷贝的authorized_keys文件内容粘贴上。 chmod 644 .ssh/authorized_keys   ③在master上: ssh slave 看是否能自动登录   这样host和ssh环境就配好了。   有人会觉得slave上的操作很麻烦,这是因为这里只添加了用户,而没有给用户密码,这样导致hadoop用户只能用证书登陆,不能

您可能关注的文档

文档评论(0)

yan698698 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档