分享

Hadoop2.2.0安装配置常见问题dataNode 无法启动总结

pig2 2013-12-21 22:33:29 发表于 问题解答 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 9438
一、dataNode 无法启动是配置过程中最常见的问题,主要原因是多次format namenode 造成namenode 和datanode的clusterID不一致。建议查看datanode上面的log信息。
解决办法:修改每一个datanode上面的CID(位于dfs/data/current/VERSION文件夹中)使两者一致。
二、1. clusterID不一致,namenode的cid和datanode的cid不一致,导致的原因是对namenode进行format的之后,datanode不会进行format,所以datanode里面的cid还是和format之前namenode的cid一样,解决办法是删除datanode里面的dfs.datanode.data.dir目录和tmp目录,然后再启动start-dfs.sh
2.即使删除iptables之后,仍然报Datanode denied communication with namenode: DatanodeRegistration错误,参考文章http://stackoverflow.com/questions/17082789/cdh4-3exception-from-the-logs-after-start-dfs-sh-datanode-and-namenode-star,可以知道需要把集群里面每个houst对应的ip写入/etc/hosts文件就能解决问题。
3.关闭所有机器上面的防火墙!!

没找到任何评论,期待你打破沉寂

howtodown 发表于 2013-12-21 22:46:08
大家还遇到过这种情况,这里分享给大家
Hadoop2.0中是否需要配置masters文件?
下载安装包后,etc/hadoop下是没有masters这个文件的,看网上好多安装时都配置了这个文件,文件中添写的是secondarynamenode的IP,但实际安装一个Namenode和一个Datanode后,发现这个文件不起作用,hadoop中的namenode、datanode和secondarynamenode都可以正常启动。这个文件到底有没有用啊?谁需要读这个文件?
解决方案:
这个是辅助第二节点  ,也就是namenode挂了之后  可以通过这个节点辅助还原的,这个节点会定期跟namenode通讯记录   ,所有master是要放第二节点IP用的
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条