分享

HBase HA (多HMaster)

redhat1986 发表于 2014-12-31 18:18:50 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 13 77994
supertianxiang 发表于 2016-1-11 17:40:23
wscl1213 发表于 2016-1-11 17:23
不需要修改什么,具体看自己的问题。
host配置确保正确。
最好参考标准文档

感谢回复,HOSTS,HOSTNAME配置没有问题,其它基本跟8#楼的差不多,就是在HMASTET启动的时候提示

160032 2016-01-11 17:13:10,987 INFO  [main] impl.MetricsSystemImpl: HBase metrics system started
160033 2016-01-11 17:13:12,050 ERROR [main] master.HMasterCommandLine: Master exiting
160034 java.lang.RuntimeException: Failed construction of Master: class org.apache.hadoop.hbase.master.HMaster
160035     at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:3017)
160036     at org.apache.hadoop.hbase.master.HMasterCommandLine.startMaster(HMasterCommandLine.java:186)
160037     at org.apache.hadoop.hbase.master.HMasterCommandLine.run(HMasterCommandLine.java:135)
160038     at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
160039     at org.apache.hadoop.hbase.util.ServerCommandLine.doMain(ServerCommandLine.java:126)
160040     at org.apache.hadoop.hbase.master.HMaster.main(HMaster.java:3031)
160041 Caused by: java.net.UnknownHostException: HADOOPCLUSTER1   
     这个不用加到HOSTS里面吧,加进去可以解决这个问题,能启动,但是在namenode倒换的时候有其它问题                                                                                          
160042     at org.apache.hadoop.security.SecurityUtil.buildTokenService(SecurityUtil.java:377)
160043     at org.apache.hadoop.hdfs.NameNodeProxies.createNonHAProxy(NameNodeProxies.java:240)
160044     at org.apache.hadoop.hdfs.NameNodeProxies.createProxy(NameNodeProxies.java:144)
160045     at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:579)
160046     at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:524)
160047     at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:146)
160048     at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2397)
160049     at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:89)
160050     at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2431)
160051     at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2413)
160052     at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:368)
160053     at org.apache.hadoop.fs.Path.getFileSystem(Path.java:296)
160054     at org.apache.hadoop.hbase.util.FSUtils.getRootDir(FSUtils.java:927)
160055     at org.apache.hadoop.hbase.master.HMaster.<init>(HMaster.java:533)
160056     at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
160057     at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:57)
160058     at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
160059     at java.lang.reflect.Constructor.newInstance(Constructor.java:526)
160060     at org.apache.hadoop.hbase.master.HMaster.constructMaster(HMaster.java:3012)

回复

使用道具 举报

wscl1213 发表于 2016-1-11 17:45:39
supertianxiang 发表于 2016-1-11 17:40
感谢回复,HOSTS,HOSTNAME配置没有问题,其它基本跟8#楼的差不多,就是在HMASTET启动的时候提示

16003 ...

<property>
    <name>hbase.rootdir</name>
    <value>hdfs://mycluster/hbase</value>
    <description>The directory shared by RegionServers.</description>
</property>

看着感觉是配置错位了,而且错的不止一个地方,建议参考标准文档,否则很难搞。

回复

使用道具 举报

supertianxiang 发表于 2016-1-12 09:56:17
wscl1213 发表于 2016-1-11 17:45
hbase.rootdir
    hdfs://mycluster/hbase
    The directory shared by RegionServers.

  谢谢,没有错误,我的集群就是HADOOPCLUSTER1,QJM的HA集群,我现在是是通过给HADOOPCLUSTER1来在HOSTS里面指定一个主namenode所在的机器来使用的,这样可以保证HBASE的HA,但是如果namenode发生倒换,我就又得改HOSTS,否则regionserver flush文件的时候还往以前的主namenode通信,然后会一会挂掉,我觉得这是一个问题,一直也没有找到解决办法,能给我一份你当时的配置吗,我看看。
回复

使用道具 举报

supertianxiang 发表于 2016-1-12 16:48:51
wscl1213 发表于 2016-1-11 17:45
hbase.rootdir
    hdfs://mycluster/hbase
    The directory shared by RegionServers.

多谢,问题已经解决,是dfs.client.failover.proxy.provider配置的问题
回复

使用道具 举报

12
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条