分享

hadoop2.6的datanode不能启动,请帮助

aaronping 发表于 2015-1-21 17:08:34 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 5 33250
报错信息为:
FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.SharedFileDescriptorFactory.createDescriptor0(Ljava/lang/String;Ljava/lang/String;I)Ljava/io/FileDescriptor;
        at org.apache.hadoop.io.nativeio.SharedFileDescriptorFactory.createDescriptor0(Native Method)
        at org.apache.hadoop.io.nativeio.SharedFileDescriptorFactory.create(SharedFileDescriptorFactory.java:87)
        at org.apache.hadoop.hdfs.server.datanode.ShortCircuitRegistry.<init>(ShortCircuitRegistry.java:173)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.initDataXceiver(DataNode.java:867)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:1056)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:415)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2268)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:2155)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:2202)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2378)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2402)

已有(5)人评论

跳转到指定楼层
w123aw 发表于 2015-1-21 18:40:23
查看本地库是32位还是64位,Linux系统是32位还是64位
Linux与hadoop版本位数记得一致
回复

使用道具 举报

langke93 发表于 2015-1-21 18:44:08
查看下本地库版本
hadoop本地库与系统版本不一致引起的错误解决方法


回复

使用道具 举报

aaronping 发表于 2015-1-21 22:07:52
都是64位,在昨天有启动成功过,不过当时的resourcemanager有错,修改了配置后,今天就启动不了datanode了,应该是配置问题,明天继续研究下
回复

使用道具 举报

aaronping 发表于 2015-1-21 22:09:03
多谢两位的回复,您们的建议,我将也核实下
回复

使用道具 举报

aaronping 发表于 2015-1-22 18:26:08
问题找到了,是因为我将在hadoop2.2为了进行snappy压缩而编译的native库(64位)替换了hadoop2.6的native本地库,想当然的认为直接替换就可以了,没想到报错,现在换回去hadoop2.6自带的native后,datanode启动正常,并能正常使用。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条