哪位大神帮忙看下,重启系统后,hive报错,
每次重启电脑,使用hive时候都报错:Exception in thread "main"java.lang.RuntimeException:org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.SafeModeException):Cannot create directory /tmp/hive/credit/0e5d62cf-ed1e-4d8f-aa22-58b2e593d5ae.Name node is in safe mode.The reported blocks 4 has reached the threshold 0.9990 oftotal blocks 4. The number of live datanodes 1 has reached the minimum number0. Safe mode will be turned off automatically in 4 seconds. atorg.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirsInt(FSNamesystem.java:3355) atorg.apache.hadoop.hdfs.server.namenode.FSNamesystem.mkdirs(FSNamesystem.java:3330) atorg.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.mkdirs(NameNodeRpcServer.java:724) atorg.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.mkdirs(ClientNamenodeProtocolServerSideTranslatorPB.java:502) atorg.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java:59598) atorg.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:585) atorg.apache.hadoop.ipc.RPC$Server.call(RPC.java:928) atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2048) atorg.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2044) atjava.security.AccessController.doPrivileged(Native Method) atjavax.security.auth.Subject.doAs(Subject.java:422) atorg.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491) atorg.apache.hadoop.ipc.Server$Handler.run(Server.java:2042) atorg.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:444) atorg.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:626) atorg.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:570) atsun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) atsun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62) atsun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) atjava.lang.reflect.Method.invoke(Method.java:497) atorg.apache.hadoop.util.RunJar.main(RunJar.java:212)Name node is in safe mode.
先离开安全模式
s060403072 发表于 2016-3-21 10:35
Name node is in safe mode.
先离开安全模式
恩恩,可以了,谢谢了hadoop dfsadmin -safemode leave
使用spark的时候,报了几个错,不知道您知道怎么处理不
bindexception address already in use
error creating transactional connection factory
看楼主遇到了各种问题,建议先参照一些标准的文章或 则一些视频,然后在部署安装。
s060403072 发表于 2016-3-21 15:17
看楼主遇到了各种问题,建议先参照一些标准的文章或 则一些视频,然后在部署安装。
恩恩,现在都是在网上搜索一篇完整的文章,按照着去配置,但是配出来,就有各种问题,您有没有好的推荐关于规则或者视频相关的,还有软件之间的版本兼容性问题,找齐同一个版本兼容的软件很难的
credit 发表于 2016-3-21 15:20
恩恩,现在都是在网上搜索一篇完整的文章,按照着去配置,但是配出来,就有各种问题,您有没有好的推荐关 ...
楼主参考这个
hadoop、hbase、hive、zookeeper版本对应关系续(最新版)
s060403072 发表于 2016-3-21 15:53
楼主参考这个
hadoop、hbase、hive、zookeeper版本对应关系续(最新版)
好谢谢了,但是去官网看,上面的是不全的,您有没有自己安装一套环境 credit 发表于 2016-3-21 16:56
好谢谢了,但是去官网看,上面的是不全的,您有没有自己安装一套环境
高可用Hadoop2.7、Hbase1.1.3集群配置:高可用集群安装与部署
http://www.aboutyun.com/forum.php?mod=viewthread&tid=17508
when30 发表于 2016-3-21 17:49
高可用Hadoop2.7、Hbase1.1.3集群配置:高可用集群安装与部署
http://www.aboutyun.com/forum.php?mod=vi ...
感谢了,他这个好像没有hive
本帖最后由 ledasion 于 2017-2-6 21:00 编辑
bind exception address already in use这个错误查看下是不是 Spark Master 配置的 IP 与 本地的 IP 地址不一致,或者是 sc 你创建了两次
页:
[1]