【精选】Hadoop集群常见错误收集.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
【精选】Hadoop集群常见错误收集

这里将自己在初识hadoop过程中遇到的一些错误做一个简单总结:? hadoop集群时易出现的错误: 1.?? 错误现象:.NoRouteToHostException: No route to host. ?? 原因:master服务器上的防火墙没有关闭。 ?? 解决方法: 在master上关闭防火墙: chkconfig iptables off. 2.????错误现象:org.apache.hadoop.ipc.RPC: Server at JMN/03:9000 not available yet. /* JMN/03 是? hadoop集群当中master的主机名/ip */ ? ?原因:/etc/hosts中的文件被自动篡改。 ?? 解决方法: 将/etc/hosts 文件按配置文件要求改回来。 3.????错误现象:Too many fetch-failures. ?? 原因:结点间的连通不够全面。 ? ?解决方法: ??????? 1) 检查 /etc/hosts要求本机ip对应服务器名,并且包含所有的服务器ip和服务器名。 ??????? 2) 检查 .ssh/authorized_keys要求包含所有服务器(包括其自身)的public key。 (二)??hadoop集群的master中用命令运行例子易出现的故障: 1.?错误现象:java.lang.OutOfMemoryError: Java heap space. ?? 原因:JVM内存不够。 ?? 解决方法:修改mapred-site.xml中mapred.child.java.opts属性的值,其默认值是-Xmx200m 可根据需要适当增大 该值。 2.?错误现象:could only be replicated to 0 nodes, instead of 1 ?? 解决方法:在NameNode上执行命令:hadoop namenode –format重新格式化HDFS,在格式化之前,需要将你? NameNode上所配置的.dir这一namenode用来存放NameNode 持久存储名字空间及事务日志的本地文件系统路径删除,同时将各DataNode上的dfs.data.dir的路径DataNode存放块数据的本地文件系统路径的目录也删除。 ? 3.? 错误现象:namenode in safe mode. ??? 原因:hadoop进入安全模式。 解决方法:在shell中执行命令hadoop dfsadmin -safemode leave 使hadoop离开安全模式。 (三)在windows下Eclipse中运行例子易出现的错误: 1. 错误现象org.apache.hadoop.security.AccessControlException: Permission denied: user=administrator, access=EXECUTE, inode=job_201111031322_0003:heipark:supergroup:rwx-. ?原因:本地用户administrator(本机windows用户)想要远程操作hadoop系统,没有权限引起的。 ?解决办法: i、如果是测试环境,可以取消hadoop hdfs的用户权限检查。打开conf/hdfs-site.xml,找到dfs.permissions属性修改为false(默认为true)OK了。 ii、修改hadoop location参数,在advanced parameter选项卡中,找到hadoop.job.ugi项,将此项改为启动hadoop的用户名即可。 2.错误现象IOException: Cannot run program chmod: CreateProcess error=2. ? 原因: 没有安装cygwin或 没有配置环境变量。 ??? 解决办法:安装并配置环境变量 bin到 path下 重启 eclipse 问题即可。 3.? 错误现象: WARN mapred.LocalJobRunner: job_local_0001 java.lang.OutOfMemoryError: Java heap space at org.apache.hadoop.mapred.MapTask$MapOutputBuffer.init(MapTask.java:781) at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:350) ……….. java虚拟机内存分配不够 ? 解决办法:修改run configuration,选择Arguments选项卡,在VM argu

您可能关注的文档

文档评论(0)

tazhiq2 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档