hadoop2.6.0集群格式化后,提示DFS使用为0,剩余也为0

查看数: 24626 | 评论数: 3 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2015-5-1 08:37

正文摘要:

集群中的namenode ,datanode 都能够正常启动。不知是什么原因?? HDFS:50070页面如下: namenode 日志如下:(并没有error) 429 2015-05-01 08:33:39,450 INFO org.apache.hadoop.hdfs.server.na ...

回复

hapjin 发表于 2015-5-3 17:03:10
bob007 发表于 2015-5-1 10:00
确保所有进程都在,不会存在僵死进程解决办法:
重启hadoop

解决了,是/etc/hosts文件出了问题,感谢啊。
bob007 发表于 2015-5-1 10:00:36
hapjin 发表于 2015-5-1 08:43
我发现是datanode无法连接到namenode上???这个怎么解决呢?
DataNode的日志信息如下:
DataNode: Prob ...

确保所有进程都在,不会存在僵死进程解决办法:
重启hadoop


查看hosts,确保注释掉127.0.1.1


更多原因看
hadoop2.7 运行wordcount
hapjin 发表于 2015-5-1 08:43:32
我发现是datanode无法连接到namenode上???这个怎么解决呢?
DataNode的日志信息如下:
DataNode: Problem connecting to server: controller/192.168.1.186:9000
2015-05-01 08:39:12,273 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: controller/192.168.1.186:9000. Already tried 0 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1000 MILLISECONDS)
关闭

推荐上一条 /2 下一条