分享

Hadoop-0.20中namenode和secondarynamenode都死掉了,求助

fancs 发表于 2015-3-12 16:07:22 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 5 10725
本帖最后由 pig2 于 2015-3-12 16:48 编辑

查看之后发现namenode上edit.new很大,这是不是导致节点启动不了原因。如果是,怎么解决啊?谢谢各位。

这是tmp文件夹下的内容

这是tmp文件夹下的内容

已有(5)人评论

跳转到指定楼层
pig2 发表于 2015-3-12 16:49:38
确定磁盘空间是否足够

看下日志,这个能准确定位
Hadoop日志位置在哪里?确切日志位置指定
回复

使用道具 举报

fancs 发表于 2015-3-12 21:21:24
namenode的log中,edits文件好像没有加载完。这是不是说存储空间不够?
2.png
回复

使用道具 举报

howtodown 发表于 2015-3-12 21:38:23
fancs 发表于 2015-3-12 21:21
namenode的log中,edits文件好像没有加载完。这是不是说存储空间不够?

是不是运行了什么程序,数据类型错误。

回复

使用道具 举报

fancs 发表于 2015-3-13 10:38:45
howtodown 发表于 2015-3-12 21:38
是不是运行了什么程序,数据类型错误。

没啊,就是单纯的开启Hadoop,发现namenode和secondarynamenode都没启动。
回复

使用道具 举报

jixianqiuxue 发表于 2015-3-13 11:59:10
楼主磁盘空间多大,namenode为何这么大。
建议清空namenode 等相关内容,然后重新格式化一下。

回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条