分享

hbase 0.96整合到hadoop2.2三个节点全分布式安装高可靠文档

pig2 2014-5-16 16:33:48 发表于 实操演练 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 39 139037
问题导读
1.hbase安装在什么情况下会发生,启动之后自动宕机
2.hbase安装目录该如何选择?
3.hbase目录如果出现权限不一致,会发生什么情况?
4.如果只有一个节点有临时目录会出现什么情况?




Hbase集群安装前注意


1)  Java:(hadoop已经安装了),

2)  Hadoop 0.20.x / Hadoop-2.x 已经正确安装(    hadoop安装参考hadoop2完全分布式最新高可靠安装文档),并且可以启动 HDFS 系统,并且需要确保hdfs能够上传和读写文件。例如:
我们上传hbase的所有xml配置文件

上传文件:

上面说明,hdfs运行正常。

3)  ssh 必须安装ssh , sshd 也必须运行,这样Hadoop的脚本才可以远程操控其他的Hadoop和Hbase进程。ssh之间必须都打通,不用密码都可以登录。ssh打通可以参考:CentOS6.4之图解SSH无验证双向登陆配置linux(ubuntu)无密码相互登录高可靠文档

4)  NTP:集群的时钟要保证基本的一致。稍有不一致是可以容忍的,但是很大的不一致会 造成奇怪的行为。 运行 NTP 或者其他什么东西来同步你的时间.

如果你查询的时候或者是遇到奇怪的故障,可以检查一下系统时间是否正确!

设置集群各个节点时钟:date -s “2012-02-13 14:00:00”
ubuntu可以参考ubuntu ntp时间同步服务器搭建与使用
5)  ulimit 和 nproc:
HBase是数据库,会在同一时间使用很多的文件句柄。大多数linux系统使用的默认值1024是不能满足的,会导致FAQ:FAQ: Why do I see "java.io.IOException...(Too many open files)" in my logs?异常。还可能会发生这样的异常

  
  2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient: ExceptionincreateBlockOutputStream java.io.EOFException

     2010-04-06 03:04:37,542 INFO org.apache.hadoop.hdfs.DFSClient:Abandoning block blk_-6935524980745310745_1391901

所以你需要修改你的最大文件句柄限制。可以设置到10k. 你还需要修改 hbase 用户的 nproc,如果过低会造成 OutOfMemoryError异常。

需要澄清的,这两个设置是针对操作系统的,不是Hbase本身的。有一个常见的错误是Hbase运行的用户,和设置最大值的用户不是一个用户。在Hbase启动的时候,第一行日志会现在ulimit信息,所以你最好检查一下。

6)在Ubuntu上设置ulimit
可以先查看当前用户 ulimit:

ulimit -n

设置ulimit:

如果你使用的是Ubuntu,你可以这样设置:

在文件 /etc/security/limits.conf 添加一行,如:

  1. hadoop  -       nofile 32768
复制代码


可以把 hadoop 替换成你运行Hbase和Hadoop的用户。如果你用两个用户,你就需要配两个。还有配nproc hard 和 softlimits. 在文件 /etc/security/limits.conf 添加一行下面内容:
  1. hadoop soft/hard nproc 32000
复制代码
在 /etc/pam.d/common-session 加上这一行:
  1. session required  pam_limits.so
复制代码
否则在 /etc/security/limits.conf上的配置不会生效.

还有注销再登录,这些配置才能生效!
--------------------------------------------------------------------------------------------------------------
下面为什么对上面设置,做一下说明:
一、在 /etc/pam.d/common-session 加上这一行:
  1. session required pam_limit.so
复制代码

那么这一行的作用是什么?
pam_limits.so模块可以使用在对一般应用程序使用的资源限制方面。如果需要在SSH服务器上对来自不同用户的ssh访问进行限制,就可以调用该模块来实现相关功能。当需要限制用户admin登录到SSH服务器时的最大连接数(防止同一个用户开启过多的登录进程),就可以在/etc/pam.d/sshd文件中增加一行对pam_limits.so模块的调用:
session    required        pam_limit.so

二、在文件 /etc/security/limits.conf 添加如下两行一行,
  1. hadoop - nofile 32768
  2. hadoop hard nproc 16384
复制代码
他们的含义分别为:
hadoop  -       nofile 32768
这个的含义是什么?
hadoop最大能打开的文件数不超过65536

hadoop           hard    nproc   16384
这个的含义是什么?
hadoop用户最大能开启的进程数不超过16384

--------------------------------------------------------------------------------------------------------------


分布式模式配置

在进行下面配置之前需要注意的问题:
第一:首先需要建立,下面配置文件中的目录:下面配置文件需要建立的的文件:
1.hbase临时目录,这里对应的是下面配置。
这里在说一下,这个临时目录的选择,系统默认目录,容易被系统删除,所以我们需要更改默认目录。但是我们更改目录需要注意的一个问题,就是用户权限,很多人在安装的时候随便选择了一个目录,结果不能访问,所以你的hbase起来之后,过会就挂掉了。

一、新建文件,并注意权限问题
hbase临时目录
  1. <property>
  2. <name>hbase.tmp.dir</name>
  3. <value>file:/usr/hbase/tmp</value>
  4. </property>
复制代码
zookeeper目录:
  1. <property>
  2. <name>hbase.zookeeper.property.dataDir</name>
  3. <value>file:/usr/hbase/zookeeper</value>
  4. </property>
复制代码
上面文件建立后,我们看到下面效果

同时看一下这两个文件夹的权限与hadoop、hbase,都属于用户及用户组aboutyun:aboutyun



二、每个节点都必须创建文件夹,否则也会出现regionserver自动挂机。



上面说了注意的问题,下面开始配置(先配置master节点)



1.1首先下载hbase
链接: http://pan.baidu.com/s/1sjubg0t 密码: crxs
1.2上传压缩包到Linux
如果使用win7,则上传到Linux,这里使用的是虚拟机,通过WinSCP上传。winSCP不会使用参考新手指导:使用 WinSCP(下载) 上文件到 Linux图文教程
1.3解压
  1. tar zxvf hbase.tar.gz
复制代码

hbasepath.png


1.4配置conf/hbase-env.sh
进入/usr/hbase/conf,修改hbase-env.sh
xiugai.png
  1. export JAVA_HOME=/usr/jdk1.7
  2. # Tell HBase whether it should manage it'sown instance of Zookeeper or not.
复制代码


不管是什么模式,你都需要编辑 conf/hbase-env.sh来告知Hbase java的安装路径.在这个文件里你还可以设置Hbase的运行环境,诸如 heapsize和其他 JVM有关的选项, 还有Log文件地址,等等. 设置 JAVA_HOME指向 java安装的路径.

一个分布式运行的Hbase依赖一个zookeeper集群。所有的节点和客户端都必须能够访问zookeeper。默认的情况下Hbase会管理一个zookeep集群。这个集群会随着Hbase的启动而启动。当然,你也可以自己管理一个zookeeper集群,但需要配置Hbase。你需要修改conf/hbase-env.sh里面的HBASE_MANAGES_ZK 来切换。这个值默认是true的,作用是让Hbase启动的时候同时也启动zookeeper.

让Hbase使用一个现有的不被Hbase托管的Zookeep集群,需要设置 conf/hbase-env.sh文件中的HBASE_MANAGES_ZK 属性为 false,这里使用的是系统自带的,所以为true
,
  1. # Tell HBase whether it should manage it's own instanceof Zookeeper or not.
  2. exportHBASE_MANAGES_ZK=true
复制代码

1.5配置conf/hbase-site.xml

  1. <configuration>
  2. <property>
  3. <name>hbase.rootdir</name>
  4. <value>hdfs://master:8020/hbase</value>
  5. </property>
  6. <property>
  7. <name>hbase.tmp.dir</name>
  8. <value>file:/usr/hbase/tmp</value>
  9. </property>
  10. <property>
  11. <name>hbase.master</name>
  12. <value>hdfs://master:60000</value>
  13. </property>
  14. <property>
  15. <name>hbase.zookeeper.property.dataDir</name>
  16. <value>file:/usr/hbase/zookeeper</value>
  17. </property>
复制代码



要想运行完全分布式模式,加一个属性 hbase.cluster.distributed 设置为 true 然后把 hbase.rootdir 设置为HDFS的NameNode的位置。 例如,你的namenode运行在node1,端口是8020 你期望的目录是 /hbase,使用如下的配置:hdfs://master:8020/hbase.注释:
这个端口的确认:比如在
hadoop1.X中使用的hdfs://master:9000/
hadoop2.X中使用的hdfs://master:8020/
这个端口是由core-site.xml来决定
  1. <property>
  2.                 <name>fs.defaultFS</name>
  3.                 <value>hdfs://master:8020</value>
  4.        </property>
复制代码



hbase.rootdir:这个目录是region server的共享目录,用来持久化Hbase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的'/hbase'目录,namenode 运行在node1的49002端口。则需要设置为hdfs://master:49002/hbase。默认情况下Hbase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。默认: file:///tmp/hbase-${user.name}/hbase

hbase.cluster.distributed :Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。

默认: false

在hbase-site.xml配置zookeeper:

当Hbase管理zookeeper的时候,你可以通过修改zoo.cfg来配置zookeeper,

一个更加简单的方法是在 conf/hbase-site.xml里面修改zookeeper的配置。Zookeeer的配置是作为property写在 hbase-site.xml里面的。

对于zookeepr的配置,你至少要在 hbase-site.xml中列出zookeepr的ensemble servers,具体的字段是 hbase.zookeeper.quorum. 该这个字段的默认值是 localhost,这个值对于分布式应用显然是不可以的. (远程连接无法使用)。


hbase.zookeeper.property.clientPort:ZooKeeper的zoo.conf中的配置。 客户端连接的端口。

hbase.zookeeper.quorum:Zookeeper集群的地址列表,用逗号分割。例如:"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".默认是localhost,是给伪分布式用的。要修改才能在完全分布式的情况下使用。如果在hbase-env.sh设置了HBASE_MANAGES_ZK,这些ZooKeeper节点就会和Hbase一起启动。

默认: localhost

运行一个zookeeper也是可以的,但是在生产环境中,你最好部署3,5,7个节点。部署的越多,可靠性就越高,当然只能部署奇数个,偶数个是不可以的。你需要给每个zookeeper 1G左右的内存,如果可能的话,最好有独立的磁盘。 (独立磁盘可以确保zookeeper是高性能的。).如果你的集群负载很重,不要把Zookeeper和RegionServer运行在同一台机器上面。就像DataNodes 和 TaskTrackers一样

hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。 快照的存储位置

把ZooKeeper保存数据的目录地址改掉。默认值是 /tmp ,这里在重启的时候会被操作系统删掉,可以把它修改到 /home/hadoop/zookeeper (这个路径hadoop用户拥有操作权限)


对于独立的Zookeeper,要指明Zookeeper的host和端口。可以在 hbase-site.xml中设置, 也可以在Hbase的CLASSPATH下面加一个zoo.cfg配置文件。 HBase 会优先加载 zoo.cfg 里面的配置,把hbase-site.xml里面的覆盖掉.


1.6配置conf/regionservers
slave1
slave2


完全分布式模式的还需要修改conf/regionservers. 在这里列出了你希望运行的全部 HRegionServer,一行写一个host (就像Hadoop里面的 slaves 一样). 列在这里的server会随着集群的启动而启动,集群的停止而停止.



1.7替换hadoop的jar包
hbase基本的配置完了。
查看hbase的lib目录下。
ls lib |grep hadoop

hadoop-annotations-2.1.0-beta.jar
hadoop-auth-2.1.0-beta.jar
hadoop-client-2.1.0-beta.jar
hadoop-common-2.1.0-beta.jar
hadoop-hdfs-2.1.0-beta.jar
hadoop-hdfs-2.1.0-beta-tests.jar
hadoop-mapreduce-client-app-2.1.0-beta.jar
hadoop-mapreduce-client-common-2.1.0-beta.jar
hadoop-mapreduce-client-core-2.1.0-beta.jar
hadoop-mapreduce-client-jobclient-2.1.0-beta.jar
hadoop-mapreduce-client-jobclient-2.1.0-beta-tests.jar
hadoop-mapreduce-client-shuffle-2.1.0-beta.jar
hadoop-yarn-api-2.1.0-beta.jar
hadoop-yarn-client-2.1.0-beta.jar
hadoop-yarn-common-2.1.0-beta.jar
hadoop-yarn-server-common-2.1.0-beta.jar
hadoop-yarn-server-nodemanager-2.1.0-beta.jar

看到它是基于hadoop2.1.0的,所以我们需要用我们的hadoop2.2.0下的jar包来替换2.1的,保证版本的一致性,hadoop下的jar包都是在$HADOOP_HOME/share/hadoop下的.

我们先cd 到 /home/hadoop/hbase-0.96.0-hadoop2/lib下运行命令: rm -rf hadoop*.jar删掉所有的hadoop相关的jar包,然后运行:
find /home/hadoop/hadoop-2.2.0/share/hadoop -name "hadoop*jar" | xargs -i cp {} /home/hadoop/hbase-0.96.0-hadoop2/lib/
拷贝所有hadoop2.2.0下的jar包hbase下进行hadoop版本的统一


注意的问题:
由于包之间的重复,后面使用还会产生问题,如下:
hbase使用遇到 Class path contains multiple SLF4J bindings.错误解决方案
所以我们还需要运行下面命令:
(对于新手总想直接复制命令就像万事大吉,这里面需要注意的问题:
路径,如果hbase位于usr下面,是没有问题的。但是如果更换了路径,注意红字部分你需要修改。


/usr/hbase/lib rm slf4j-log4j12-1.6.4.jar

1.8分发hbase

上面我们配置完毕,接着就是把这个文件夹下发到slave节点
  1. scp  /usr/hbase slave1:~/
复制代码
然后在从~/hbase移动到 /usr路径中。



2.  运行和确认安装

2.1当Hbase托管ZooKeeper的时候
当Hbase托管ZooKeeper的时候Zookeeper集群的启动是Hbase启动脚本的一部分

首先确认你的HDFS是运行着的。你可以运行HADOOP_HOME中的 bin/start-hdfs.sh 来启动HDFS.你可以通过put命令来测试放一个文件,然后有get命令来读这个文件。通常情况下Hbase是不会运行mapreduce的。所以需要检查这些。

用如下命令启动Hbase:

bin/start-hbase.sh

这个脚本在HBASE_HOME目录里面。

你现在已经启动Hbase了。Hbase把log记在 logs 子目录里面. 当Hbase启动出问题的时候,可以看看Log.

Hbase也有一个界面,上面会列出重要的属性。默认是在Master的60010端口上H (HBase RegionServers 会默认绑定 60020端口,在端口60030上有一个展示信息的界面 ).如果Master运行在 node1,端口是默认的话,你可以用浏览器在 http://node:60010看到主界面. .

一旦Hbase启动,可以看到如何建表,插入数据,scan你的表,还有disable这个表,最后把它删掉。

可以在Hbase Shell停止Hbase

$./bin/stop-hbase.sh

stoppinghbase...............

停止操作需要一些时间,你的集群越大,停的时间可能会越长。如果你正在运行一个分布式的操作,要确认在Hbase彻底停止之前,Hadoop不能停.


2.2独立的zookeeper启动(如果另外安装,可以选此)
除了启动habse,

执行:bin/start-hbase.sh启动habse

你需要自己去运行zookeeper:

${HBASE_HOME}/bin/hbase-daemons.sh {start,stop} zookeeper

你可以用这条命令启动ZooKeeper而不启动Hbase. HBASE_MANAGES_ZK 的值是 false, 如果你想在Hbase重启的时候不重启ZooKeeper,你可以这样。



3.  测试
可以使用jps查看进程:在master上:
在slave1,slave2(slave节点)上








通过浏览器查看60010端口:







4.  安装中出现的问题

1 )用./start-hbase.sh启动HBase后,执行hbase shell
  1. # bin/hbase shell
  2. HBase Shell; enter 'help<RETURN>' for list of supported commands.
  3. Version: 0.20.6, rUnknown, Thu Oct 28 19:02:04 CST 2010
复制代码


接着创建表时候出现如下情况:
  1. hbase(main):001:0> create 'test',''c
复制代码

NativeException: org.apache.hadoop.hbase.MasterNotRunningException: null
jps下,发现主节点上HMaster没有启动,查理HBase log(logs/hbase-hadoop-master-ubuntu.log)里有下面异常:
FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
java.io.IOException: Call to node1/10.64.56.76:49002 failed on local exception: java.io.EOFException

解决:
从hadoop_home/下面cp一个hadoop/hadoop-core-0.20.203.0.jar到hbase_home/lib下。

因为Hbase建立在Hadoop之上,所以他用到了hadoop.jar,这个Jar在 lib 里面。这个jar是hbase自己打了branch-0.20-append 补丁的hadoop.jar. Hadoop使用的hadoop.jar和Hbase使用的 必须 一致。所以你需要将 Hbaselib 目录下的hadoop.jar替换成Hadoop里面的那个,防止版本冲突。比方说CDH的版本没有HDFS-724而branch-0.20-append里面有,这个HDFS-724补丁修改了RPC协议。如果不替换,就会有版本冲突,继而造成严重的出错,Hadoop会看起来挂了。

再用./start-hbase.sh启动HBase后,jps下,发现主节点上HMaster还是没有启动,在HBase log里有下面异常:
FATAL org.apache.hadoop.hbase.master.HMaster: Unhandled exception. Starting shutdown.
java.lang.NoClassDefFoundError: org/apache/commons/configuration/Configuration
解决:
在NoClassDefFoundError,缺少 org/apache/commons/configuration/Configuration
果断给他加一个commons-configuration包,
从hadoop_home/lib下面cp一个hadoop/lib/commons-configuration-1.6.jar到hbase_home/lib下。

(集群上所有机子的hbase配置都需要一样)

创建表报错:


ERROR: java.io.IOException: Table Namespace Manager not ready yet, try again later
at org.apache.hadoop.hbase.master.HMaster.getNamespaceDescriptor(HMaster.java:3101)
at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:1738)
at org.apache.hadoop.hbase.master.HMaster.createTable(HMaster.java:1777)
at org.apache.hadoop.hbase.protobuf.generated.MasterProtos$MasterService$2.callBlockingMethod(MasterProtos.java:38221)
at org.apache.hadoop.hbase.ipc.RpcServer.call(RpcServer.java:2146)
at org.apache.hadoop.hbase.ipc.RpcServer$Handler.run(RpcServer.java:1851)

解决:

1) 查看集群的所有机器上,

HRegionServer和HQuorumPeer进程是否都启动?
2)查看集群的所有机器的logs是不是有错误消息;

tail -f hbase-hadoop-regionserver-XXX..log


2  注意事项:
1)、先启动hadoop后,再开启hbase
2)、去掉hadoop的安全模式:hadoop dfsadmin -safemode leave
3)、把/etc/hosts里的ubuntu的IP改为服务器当前的IP
4)  、确认hbase的hbase-site.xml中
                  <name>hbase.rootdir</name>
                 <value>hdfs://node:49002/hbase</value>
         与hadoop的core-site.xml中
                   <name>fs.default.name</name>
                  <value>hdfs://node:49002/hbase</value>
       红字部分保持一致
      <value>hdfs://localhost:8020/hbase</value>

     否则报错:java.lang.RuntimeException: HMaster Aborted

6)、重新执行./start-hbase.sh之前,先kill掉当前的hbase和zookeeper进程
PS:遇到问题时,先查看logs,很有帮助。


下一篇:
hbase0.96与hive0.12整合高可靠文档及问题总结



已有(40)人评论

跳转到指定楼层
zygift 发表于 2015-5-15 18:47:31
分享点经验:hadoop2.2.0+hbase-0.98.12-hadoop2 不用替换jar包。我部署成功了。
再次感谢楼主
回复

使用道具 举报

小小布衣 发表于 2014-7-19 11:32:55
求教一个问题:hadoop2.2.0中有了journalnode之后就不要secondarynamenode吗,为什么我每次启动都没有secondarynamenode这个进程了
回复

使用道具 举报

admin 发表于 2014-7-19 13:14:10
小小布衣 发表于 2014-7-19 11:32
求教一个问题:hadoop2.2.0中有了journalnode之后就不要secondarynamenode吗,为什么我每次启动都没有secon ...

你配置的HA吧,secondarynamenode是备份用的,HA也是备份用的。
回复

使用道具 举报

小小布衣 发表于 2014-7-19 13:48:01
请问,我按照上面的配了,可是还Hmaster还是会自动宕掉,是不是和hbase占用的内存有关系啊,我一个虚拟主机配的内存是512M
回复

使用道具 举报

hyj 发表于 2014-7-19 14:32:22
小小布衣 发表于 2014-7-19 13:48
请问,我按照上面的配了,可是还Hmaster还是会自动宕掉,是不是和hbase占用的内存有关系啊,我一个虚拟主机 ...

具体看情况,宕掉看日志,看看是内存的问题,还是因为权限问题
回复

使用道具 举报

小小布衣 发表于 2014-7-19 23:06:58
admin 发表于 2014-7-19 13:14
你配置的HA吧,secondarynamenode是备份用的,HA也是备份用的。

我配置的是两个namenode,这样再配secondarynamenode还有必要吗
回复

使用道具 举报

小小布衣 发表于 2014-7-19 23:45:48
hyj 发表于 2014-7-19 14:32
具体看情况,宕掉看日志,看看是内存的问题,还是因为权限问题

下面是日志信息。说什么建表的时候命名空间找不到了,

2014-07-19 20:07:05,518 INFO  [master:itcast01:60000] master.SnapshotOfRegionAssignmentFromMeta: Finished to scan the hbase:meta for the current region assignmentsnapshot
2014-07-19 20:07:05,573 INFO  [master:itcast01:60000] master.TableNamespaceManager: Namespace table not found. Creating...
2014-07-19 20:07:05,697 DEBUG [master:itcast01:60000] lock.ZKInterProcessLockBase: Acquired a lock for /hbase/table-lock/hbase:namespace/write-master:600000000000015
2014-07-19 20:07:05,719 DEBUG [master:itcast01:60000] lock.ZKInterProcessLockBase: Released /hbase/table-lock/hbase:namespace/write-master:600000000000015
2014-07-19 20:07:05,719 FATAL [master:itcast01:60000] master.HMaster: Master server abort: loaded coprocessors are: []
2014-07-19 20:07:05,721 FATAL [master:itcast01:60000] master.HMaster: Unhandled exception. Starting shutdown.
org.apache.hadoop.hbase.TableExistsException: hbase:namespace
        at org.apache.hadoop.hbase.master.handler.CreateTableHandler.prepare(CreateTableHandler.java:120)
        at org.apache.hadoop.hbase.master.TableNamespaceManager.createNamespaceTable(TableNamespaceManager.java:230)
        at org.apache.hadoop.hbase.master.TableNamespaceManager.start(TableNamespaceManager.java:85)
        at org.apache.hadoop.hbase.master.HMaster.initNamespace(HMaster.java:1060)
        at org.apache.hadoop.hbase.master.HMaster.finishInitialization(HMaster.java:921)
        at org.apache.hadoop.hbase.master.HMaster.run(HMaster.java:607)
        at java.lang.Thread.run(Thread.java:722)
2014-07-19 20:07:05,727 INFO  [master:itcast01:60000] master.HMaster: Aborting
2014-07-19 20:07:05,728 INFO  [itcast01,60000,1405771616468-BalancerChore] balancer.BalancerChore: itcast01,60000,1405771616468-BalancerChore exiting
2014-07-19 20:07:05,728 INFO  [itcast01,60000,1405771616468-ClusterStatusChore] balancer.ClusterStatusChore: itcast01,60000,1405771616468-ClusterStatusChore exiting
2014-07-19 20:07:05,729 INFO  [CatalogJanitor-itcast01:60000] master.CatalogJanitor: CatalogJanitor-itcast01:60000 exiting
2014-07-19 20:07:05,729 DEBUG [master:itcast01:60000] master.HMaster: Stopping service threads
2014-07-19 20:07:05,730 INFO  [master:itcast01:60000] ipc.RpcServer: Stopping server on 60000
回复

使用道具 举报

小小布衣 发表于 2014-7-19 23:47:58
小小布衣 发表于 2014-7-19 23:45
下面是日志信息。说什么建表的时候命名空间找不到了,

2014-07-19 20:07:05,518 INFO  [master:itcast ...

这个是这两个文件夹的权限方面的信息

drwxr-xr-x.  3 root root   4096 Jul 19 20:02 tmp
drwxr-xr-x.  2 root root   4096 Jul 19 20:01 zookeeper


拜托,这事我查了一天都没有弄出来,整整一天的时间啊

回复

使用道具 举报

hyj 发表于 2014-7-21 12:58:31
小小布衣 发表于 2014-7-19 23:47
这个是这两个文件夹的权限方面的信息

drwxr-xr-x.  3 root root   4096 Jul 19 20:02 tmp
把zookeeper里面的/hbase文件夹给删掉
回复

使用道具 举报

1234下一页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条