hadoop安装配置错误总结 | 张恒镭的博客

hadoop安装配置错误总结

时间:13-11-27 栏目:hadoop 作者:恒镭, 张 评论:0 点击: 14,355 次

什么情况算是安装成功了呢?

以我的伪分布式集群为例:

执行jps 看是否有这几个进程。

@long-pc:~/-0.20.2-cdh3u6$ jps
11646 NameNode
12075 SecondaryNameNode
12397 Jps
12380 TaskTracker
12169 JobTracker
11861 DataNode

 

执行hadoop dfsadmin –report 看是否有类似下面的信息。

hadoop@long-pc:~/hadoop-0.20.2-cdh3u6$ hadoop dfsadmin -report
Configured Capacity: 31044169728 (28.91 GB)
Present Capacity: 23060250639 (21.48 GB)
DFS Remaining: 23060221952 (21.48 GB)
DFS Used: 28687 (28.01 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

-------------------------------------------------
Datanodes available: 1 (1 total, 0 dead)

Name: 127.0.0.1:50010
Decommission Status : Normal
Configured Capacity: 31044169728 (28.91 GB)
DFS Used: 28687 (28.01 KB)
Non DFS Used: 7983919089 (7.44 GB)
DFS Remaining: 23060221952(21.48 GB)
DFS Used%: 0%
DFS Remaining%: 74.28%
Last contact: Wed Nov 27 18:09:41 CST 2013

 

在你配置过程中 没有哪一个新手不会遇到错误的。遇到错误一是查看安装目录下的log 查错,一个是把你的错误google 。

下面整理一些常见的错误:

1.Retrying connect to server: localhost/127.0.0.1:9000.

Call to localhost/127.0.0.1:9000 failed on connection exception: java.net.ConnectException: Connection refused

  原因:hadoop未启动或core-site.xml中配置错误

  解决方案:启动hadoop或修改配置。

2.Exception in thread "main" java.io.IOException: Call to localhost/127.0.0.1:9000 failed on local exception: java.io.EOFException

报此错说明客户端hadoop版本和服务端hadoop版本不一致。修改客户端引用hadoop的版本。

(比如你之前安装了apache hadoop 0.2 然后某些进程你没有杀掉 然后你又在同一台机器安装 另一个版本 就会报这个错误)

记得再安装另一个版本时,上一个的应该全部清理掉,尤其是进程和端口

3. Cannot delete /home/hadoop/part. Name node is in safe mode.

说明Hadoop的NameNode处在安全模式下。 

那什么是Hadoop的安全模式呢? 

在分布式文件系统启动的时候,开始的时候会有安全模式,当分布式文件系统处于安全模式的情况下,文件系统中的内容不允许修改也不允许删除,直到安全模式结 束。安全模式主要是为了系统启动的时候检查各个DataNode上数据块的有效性,同时根据策略必要的复制或者删除部分数据块。运行期通过命令也可以进入 安全模式。在实践过程中,系统启动的时候去修改和删除文件也会有安全模式不允许修改的出错提示,只需要等待一会儿即可(18s)。 

NameNode在启动的时候首先进入安全模式,如果datanode丢失的block达到一定的比例(1-dfs.safemode.threshold.pct),则系统会一直处于安全模式状态即只读状态。

dfs.safemode.threshold.pct(缺省值0.999f)表示HDFS启动的时候,如果DataNode上报的block个数达到了 元数据记录的block个数的0.999倍才可以离开安全模式,否则一直是这种只读模式。如果设为1则HDFS永远是处于SafeMode。

下面这行摘录自NameNode启动时的日志(block上报比例1达到了阀值0.9990)

The ratio of reported blocks 1.0000 has reached the threshold 0.9990. Safe mode will be turned off automatically in 18 seconds.

hadoop dfsadmin -safemode leave

有两个方法离开这种安全模式

1. 修改dfs.safemode.threshold.pct为一个比较小的值,缺省是0.999。

2. hadoop dfsadmin -safemode leave命令强制离开

http://bbs.hadoopor.com/viewthread.php?tid=61&extra=page=1

用户可以通过dfsadmin -safemode value   来操作安全模式,参数value的说明如下:

enter - 进入安全模式

leave - 强制NameNode离开安全模式

get -   返回安全模式是否开启的信息

wait - 等待,一直到安全模式结束。

4. mismatched input 'from' expecting CharSetLiteral in character string literal:columnName包含特殊字符,加上``就可以了

hive> select id,\`_bucketname\` from default__table02_table02_index__;
FAILED: Parse Error: line 1:26 cannot recognize input 'from' in select expression

hive> select id,`_bucketname` from default__table02_table02_index__;

5、

2013-11-27 17:47:06,115 FATAL org.apache.hadoop.mapred.JobTracker: java.net.BindException: Problem binding to localhost/127.0.0.1:9001 : Address already in use
        at org.apache.hadoop.ipc.Server.bind(Server.java:231)
        at org.apache.hadoop.ipc.Server$Listener.<init>(Server.java:320)
        at org.apache.hadoop.ipc.Server.<init>(Server.java:1534)
        at org.apache.hadoop.ipc.RPC$Server.<init>(RPC.java:539)
        at org.apache.hadoop.ipc.RPC.getServer(RPC.java:500)
        at org.apache.hadoop.mapred.JobTracker.<init>(JobTracker.java:1817)
        at org.apache.hadoop.mapred.JobTracker.<init>(JobTracker.java:1724)
        at org.apache.hadoop.mapred.JobTracker.startTracker(JobTracker.java:297)
        at org.apache.hadoop.mapred.JobTracker.startTracker(JobTracker.java:289)
        at org.apache.hadoop.mapred.JobTracker.main(JobTracker.java:4501)
Caused by: java.net.BindException: Address already in use

 

很明显是9001端口被占用了。查出来杀掉即可。

sudo netstat -anp|grep 9001

tcp6       0      0 127.0.0.1:9001          127.0.0.1:58283         ESTABLISHED 11538/java 

sudo kill -9 11538

6、

hadoo异常——org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException

2013-08-20 10:36:17,728 INFO org.apache.hadoop.http.HttpServer: listener.getLocalPort() returned 50070 webServer.getConnectors()[0].getLocalPort() returned 50070

2013-08-20 10:36:17,728 INFO org.apache.hadoop.http.HttpServer: Jetty bound to port 50070

2013-08-20 10:36:17,728 INFO org.mortbay.log: jetty-6.1.26

2013-08-20 10:36:18,118 INFO org.mortbay.log: Started SelectChannelConnector@0.0.0.0:50070

2013-08-20 10:36:18,119 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Web-server up at: 0.0.0.0:50070

2013-08-20 10:36:18,119 INFO org.apache.hadoop.ipc.Server: IPC Server Responder: starting

2013-08-20 10:36:18,120 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 49000: starting

2013-08-20 10:36:18,121 INFO org.apache.hadoop.ipc.Server: IPC Server handler 0 on 49000: starting

2013-08-20 10:36:18,121 INFO org.apache.hadoop.ipc.Server: IPC Server handler 1 on 49000: starting

2013-08-20 10:36:18,121 INFO org.apache.hadoop.ipc.Server: IPC Server handler 2 on 49000: starting

2013-08-20 10:36:18,122 INFO org.apache.hadoop.ipc.Server: IPC Server handler 3 on 49000: starting

2013-08-20 10:36:18,122 INFO org.apache.hadoop.ipc.Server: IPC Server handler 4 on 49000: starting

2013-08-20 10:36:18,122 INFO org.apache.hadoop.ipc.Server: IPC Server handler 5 on 49000: starting

2013-08-20 10:36:18,122 INFO org.apache.hadoop.ipc.Server: IPC Server handler 6 on 49000: starting

2013-08-20 10:36:18,123 INFO org.apache.hadoop.ipc.Server: IPC Server handler 7 on 49000: starting

2013-08-20 10:36:18,123 INFO org.apache.hadoop.ipc.Server: IPC Server handler 8 on 49000: starting

2013-08-20 10:36:18,128 INFO org.apache.hadoop.ipc.Server: IPC Server handler 9 on 49000: starting

2013-08-20 10:36:22,717 ERROR org.apache.hadoop.security.UserGroupInformation: PriviledgedActionException as:hadoop cause:java.io.IOException: File /usr/hadoop_dir/tmp/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1

2013-08-20 10:36:22,718 INFO org.apache.hadoop.ipc.Server: IPC Server handler 4 on 49000, call addBlock(/usr/hadoop_dir/tmp/mapred/system/jobtracker.info, DFSClient_NONMAPREDUCE_1570390041_1, null) from 192.168.2.99:56700: error: java.io.IOException: File /usr/hadoop_dir/tmp/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1

java.io.IOException: File /usr/hadoop_dir/tmp/mapred/system/jobtracker.info could only be replicated to 0 nodes, instead of 1

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(FSNamesystem.java:1920)

at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(NameNode.java:783)

at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)

at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)

at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)

at java.lang.reflect.Method.invoke(Method.java:597)

at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:587)

at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1432)

at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:1428)

at java.security.AccessController.doPrivileged(Native Method)

at javax.security.auth.Subject.doAs(Subject.java:396)

at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1190)

at org.apache.hadoop.ipc.Server$Handler.run(Server.java:1426)

解决方案:

1、将masters与slaves中的主机配置为IP地址。

2、网上也有说防火墙没有关,也请检查一下。

3、重新格式化namenode hadoop namenode -format,并检查version文件中的ID

4、检查core-stite.xml mapred-site.xml 文件地址换成IP

5、检查相关日志,查看错误信息

6、注意datanode目录权限一定是 755

7、也有可能是java的bug引起的

 

其他错误摘自网上:

一、hadoop集群在namenode格式化(bin/hadoop namenode -format)后重启集群会出现如下

Incompatible namespaceIDS in … :namenode namespaceID = … ,datanode namespaceID=…

,原因是格式化namenode后会重新创建一个新的namespaceID,以至于和datanode上原有的不一致。

解决方法:

  1. 删除datanode dfs.data.dir目录(默认为tmp/dfs/data)下的数据文件
  2. 修改dfs.data.dir/current/VERSION 文件,把namespaceID修成与namenode上相同即可(log错误里会有提示)
  3. 重新指定新的dfs.data.dir目录

二、hadoop集群启动start-all.sh的时候,slave总是无法启动datanode,并会报错:

… could only be replicated to 0 nodes, instead of 1 …

就是有节点的标识可能重复(个人认为这个错误的原因)。也可能有其他原因,一下解决方法请依次尝试,我是解决了。
解决方法:

  1. 删除所有节点dfs.data.dir和dfs.tmp.dir目录(默认为tmp/dfs/data和tmp/dfs/tmp)下的数据文件;然后重新hadoop namenode -format 格式化节点;然后启动。
  2. 如果是端口访问的问题,你应该确保所用的端口都打开,比如hdfs://machine1:9000/、50030、50070之类的。执行#iptables -I INPUT -p tcp –dport 9000 -j ACCEPT 命令。如果还有报错:hdfs.DFSClient: Exception in createBlockOutputStream java.net.ConnectException: Connection refused;应该是datanode上的端口不能访问,到datanode上修改iptables:#iptables -I INPUT -s machine1 -p tcp -j ACCEPT
  3. 还有可能是防火墙的限制集群间的互相通信。尝试关闭防火墙。/etc/init.d/iptables stop
  4. 最后还有可能磁盘空间不够了,请查看 df -al
  5. 我在解决这个问题的时候还有人说:先后启动namenode、datanode可以解决这个问题(本人尝试发现没用,大家可以试试)$hadoop-daemon.sh start namenode ; $hadoop-daemon.sh start datanode

三、程序执行出现Error: java.lang.NullPointerException
空指针异常,确保java程序的正确。变量什么的使用前先实例化声明,不要有数组越界之类的现象。检查程序。

四、执行自己的程序的时候,(各种)报错,请确保一下情况:

  1. 前提都是你的程序是正确通过编译的
  2. 集群模式下,请把要处理的数据写到HDFS里,并且确保HDFS路径正确
  3. 指定执行的jar包的入口类名(我不知道为什么有时候不指定也是可以运行的)

正确的写法类似:

$ hadoop jar myCount.jar myCount input output

五、ssh无法正常通信的问题,这个问题我在搭建篇里有详细提到过。

六、程序编译问题,各种包没有的情况,请确保你把hadoop目录下 和hadoop/lib目录下的jar包都有引入。详细情况也是看搭建篇里的操作。

七、Hadoop启动datanode时出现Unrecognized option: -jvm 和 Could not create the Java virtual machine.
在hadoop安装目录/bin/hadoop中有如下一段shell:

View Code SHELL

1
2
3
4
5
6
CLASS='org.apache.hadoop.hdfs.server.datanode.DataNode'
  if [[ $EUID -eq 0 ]]; then
    HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
  else
    HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
  fi

$EUID 这里的用户标识,如果是root的话,这个标识会是0,所以尽量不要使用root用户来操作hadoop就好了。这也是我在配置篇里提到不要使用root用户的原因。

八、如果出现终端的错误信息是:

ERROR hdfs.DFSClient: Exception closing file /user/hadoop/musicdata.txt : java.io.IOException: All datanodes 10.210.70.82:50010 are bad. Aborting…

还有jobtracker log的报错信息

Error register getProtocolVersion
java.lang.IllegalArgumentException: Duplicate metricsName:getProtocolVersion

和可能的一些警告信息:

WARN hdfs.DFSClient: DataStreamer Exception: java.io.IOException: Broken pipe
WARN hdfs.DFSClient: DFSOutputStream ResponseProcessor exception for block blk_3136320110992216802_1063java.io.IOException: Connection reset by peer
WARN hdfs.DFSClient: Error Recovery for block blk_3136320110992216802_1063 bad datanode[0] 10.210.70.82:50010 put: All datanodes 10.210.70.82:50010 are bad. Aborting…

解决办法:

  1. 查看dfs.data.dir属性所指的路径是否磁盘已经满了,如果满了则进行处理后再次尝试hadoop fs -put数据。
  2. 如果相关磁盘没有满,则需要排查相关磁盘没有坏扇区,需要检测。

九、如果在执行hadoop的jar程序时得到报错信息:

java.io.IOException: Type mismatch in key from map: expected org.apache.hadoop.io.NullWritable, recieved org.apache.hadoop.io.LongWritable
或者类似:
Status : FAILED java.lang.ClassCastException: org.apache.hadoop.io.LongWritable cannot be cast to org.apache.hadoop.io.Text

那么你需要学习hadoop数据类型和 map/reduce模型的基本知识。我的这篇读书笔记里边中间部分有介绍hadoop定义的数据类型和自定义数据类型的方法(主要是对writable类的学习和了解);和这篇里边说的MapReduce的类型和格式。也就是《hadoop权威指南》这本书的第四章Hadoop I/O和第七章MapReduce的类型和格式。如果你急于解决这个问题,我现在也可以告诉你迅速的解决之道,但这势必影响你以后开发:
确保一下数据的一致:

… extends Mapper…
public void map(k1 k, v1 v, OutputCollector output)…

…extends Reducer…
public void reduce(k2 k,v2 v,OutputCollector output)…

job.setMapOutputKeyClass(k2.class);
job.setMapOutputValueClass(k2.class);

job.setOutputKeyClass(k3.class);
job.setOutputValueClass(v3.class);

注意 k* 和 v*的对应。建议还是看我刚才说的两个章节。详细知道其原理。

十、如果碰到datanode报错如下:

ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Cannot lock storage /data1/hadoop_data. The directory is already locked.

根据错误提示来看,是目录被锁住,无法读取。这时候你需要查看一下是否有相关进程还在运行或者slave机器的相关hadoop进程还在运行,结合linux这俩命令来进行查看:

netstat -nap
ps -aux | grep 相关PID

如果有hadoop相关的进程还在运行,就使用kill命令干掉即可。然后再重新使用start-all.sh。

十一、如果碰到jobtracker报错如下:

Shuffle Error: Exceeded MAX_FAILED_UNIQUE_FETCHES; bailing-out.

解决方式,修改datanode节点里/etc/hosts文件。
简单介绍下hosts格式:
每行分为三个部分:第一部分网络IP地址、第二部分主机名或域名、第三部分主机别名
操作的详细步骤如下:
1、首先查看主机名称:

cat /proc/sys/kernel/hostname

会看到一个HOSTNAME的属性,把后边的值改成IP就OK,然后退出。
2、使用命令:

hostname ***.***.***.***

星号换成相应的IP。
3、修改hosts配置类似内容如下:

127.0.0.1  localhost.localdomain       localhost
::1      localhost6.localdomain6  localhost6
10.200.187.77   10.200.187.77   hadoop-datanode

如果配置后出现IP地址就表示修改成功了,如果还是显示主机名就有问题了,继续修改这个hosts文件,
如下图:

上图提醒下,chenyi是主机名。

当在测试环境里,自己再去部署一个域名服务器(个人觉得很繁琐),所以简单地方式,就直接用IP地址比较方便。如果有了域名服务器的话,那就直接进行映射配置即可。

如果还是出现洗牌出错这个问题,那么就试试别的网友说的修改配置文件里的hdfs-site.xml文件,添加以下内容:

dfs.http.address
*.*.*.*:50070 端口不要改,星号换成IP,因为hadoop信息传输都是通过HTTP,这个端口是不变的。

十一、如果碰到jobtracker报错如下:

java.lang.RuntimeException: PipeMapRed.waitOutputThreads(): subprocess failed with code *

这是java抛出的系统返回的错误码,错误码表示的意思详细的请看这里
我这里是些streaming的php程序时遇到的,遇到的错误码是code 2: No such file or directory。即找不到文件或者目录。发现命令竟然忘记使用’php ****’ 很坑,另外网上看到也可能是include、require等命令造成。详细的请根据自身情况和错误码修改。

更多 0

声明: 本文由( 恒镭, 张 )原创编译,转载请保留链接: hadoop安装配置错误总结

hadoop安装配置错误总结:等您坐沙发呢!

发表评论




------====== 本站公告 ======------
欢迎关注我的博客。

其他