分享

为什么我执行hbase的命令的时候总是报错?

menglong35 发表于 2016-12-2 13:28:59 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 4 7653
我在centos的命令行中执行hbase时,会报错,大神帮忙看看。
命令:
[root@escmaster bin]# hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot Examination-20161202 -copy-to hdfs://escn2:8020/hbase
错误:
2016-12-02 13:03:42,579 WARN  [main] security.UserGroupInformation: PriviledgedActionException as:root (auth:SIMPLE) cause:java.io.FileNotFoundException: File does not exist: hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar
2016-12-02 13:03:42,580 ERROR [main] snapshot.ExportSnapshot: Snapshot export failed
java.io.FileNotFoundException: File does not exist: hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar
        at org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1132)
        at org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1124)
        at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
        at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1124)
        at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:288)
        at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:224)
        at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestamps(ClientDistributedCacheManager.java:93)
        at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestampsAndCacheVisibilities(ClientDistributedCacheManager.java:57)
        at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:265)
        at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:301)
        at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:389)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1285)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1282)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1707)
        at org.apache.hadoop.mapreduce.Job.submit(Job.java:1282)
        at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1303)
        at org.apache.hadoop.hbase.snapshot.ExportSnapshot.runCopyJob(ExportSnapshot.java:791)
        at org.apache.hadoop.hbase.snapshot.ExportSnapshot.run(ExportSnapshot.java:950)
        at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
        at org.apache.hadoop.hbase.snapshot.ExportSnapshot.innerMain(ExportSnapshot.java:1024)
        at org.apache.hadoop.hbase.snapshot.ExportSnapshot.main(ExportSnapshot.java:1028)

已有(4)人评论

跳转到指定楼层
menglong35 发表于 2016-12-2 13:31:02
命令:
hbase org.apache.hadoop.hbase.mapreduce.Driver export Mars_Version /hbaseout
错误:
2016-12-02 13:19:14,889 INFO  [main] mapreduce.JobSubmitter: Cleaning up the staging area file:/home/hadoop/hadoop/hadoop-2.6.0-cdh5.4.10/tmp/mapred/staging/root283015236/.staging/job_local283015236_0001
2016-12-02 13:19:14,891 WARN  [main] security.UserGroupInformation: PriviledgedActionException as:root (auth:SIMPLE) cause:java.io.FileNotFoundException: File does not exist: hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar
Exception in thread "main" java.lang.reflect.InvocationTargetException
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:497)
        at org.apache.hadoop.hbase.mapreduce.Driver.main(Driver.java:55)
Caused by: java.io.FileNotFoundException: File does not exist: hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar
        at org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1132)
        at org.apache.hadoop.hdfs.DistributedFileSystem$18.doCall(DistributedFileSystem.java:1124)
        at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)

……
回复

使用道具 举报

easthome001 发表于 2016-12-2 15:22:49
首先看看这个jar包(hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar)是否真的存在。
另外命令中缺少了class
hbase class org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot MySnapshot -copy-to hdfs://escn2:8082/hbase -mappers 16

下面命令可以查看快照信息
列出快照信息
hbase org.apache.hadoop.hbase.snapshot.SnapshotInfo -list-snapshots

列出包含的文件
hbase org.apache.hadoop.hbase.snapshot.SnapshotInfo -snapshot test-snapshot -files





回复

使用道具 举报

menglong35 发表于 2016-12-2 18:20:15
easthome001 发表于 2016-12-2 15:22
首先看看这个jar包(hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1 ...

hdfs://escmaster:9000/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar
这个路径是不存在的,我不明白为什么会到这个路径里面找,我的HBASE的路径:/home/hadoop/hadoop/hbase-1.0.0-cdh5.4.10/lib/hbase-client-1.0.0-cdh5.4.10.jar,这个路径是有的。


我是了下增加class,是另外的错误,是不是什么地方的classpath设置不对?
命令:
hbase class org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot Mars_AweEnableInfo-20161202 -copy-to hdfs://escn2:8082/hbase -mappers 16
错误:
Error: Could not find or load main class class

回复

使用道具 举报

hahaxixi 发表于 2016-12-3 11:56:55
应该是hbase的环境变量没有设置好。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条