用户组:游客
使用道具 举报
desehawk 发表于 2014-10-13 15:35 配置没有错误,看看进程是否都在,条件允许,最好重启下集群
小鱼 发表于 2014-10-13 15:38 重启过了,还是一样。我是运行 hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.separa ...
hadoop jar /usr/hadoop/hadoop/lib/hbase-0.94.20.jar importtsv -Dimporttsv.columns=HBASE_ROW_KEY,CF:col1,CF:col2 -Dimporttsv.separator=, table2 /test1/test.txt 复制代码
desehawk 发表于 2014-10-13 15:57 按照这种形式,下面根据自己的实际情况修改下。
小鱼 发表于 2014-10-13 15:59 我hbase用的0.98.4的。这个版本里没有那个文件。除了0.94那个版本里有那个hbase-version.jar文件,其他版本 ...
$ bin/hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=a,b,c -Dimporttsv.bulk.output=hdfs://storefile-outputdir <tablename> <hdfs-data-inputdir>复制代码
desehawk 发表于 2014-10-13 16:12 刚查到这种形式,你试试
bin/hbase org.apache.hadoop.hbase.mapreduce.ImportTsv -Dimporttsv.columns=a,b,c -Dimporttsv.bulk.output=hdfs://storefile-outputdir <tablename> <hdfs-data-inputdir>复制代码
desehawk 发表于 2014-10-13 16:22 你的那个是没有这个参数的Dimporttsv.bulk.output 并且在执行命令的时候,需要退出bin目录,而不是直接hba ...
本版积分规则 发表回复 回帖后跳转到最后一页
经常参与各类话题的讨论,发帖内容较有主见
经常帮助其他会员答疑
活跃且尽责职守的版主
积极宣传本站,为本站带来更多注册会员
积极宣传本站,为本站带来更多的用户访问量
长期对论坛的繁荣而不断努力,或多次提出建设性意见
为论坛做出突出贡献的会员
注册会员
6
主题
49
帖子
3
粉丝
查看 »