分享

往HBase持续存入大量数据是出现如下错误

k9009147217 发表于 2016-9-18 09:38:29 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 1 6454
本帖最后由 k9009147217 于 2016-9-18 10:10 编辑

org.apache.hadoop.hbase.client.RetriesExhaustedWithDetailsException: Failed 10
ctions: RetriesExhaustedException: 9 times, HData: 1 time,
        at org.apache.hadoop.hbase.client.AsyncProcess$BatchErrors.makeExceptio
(AsyncProcess.java:247)
        at org.apache.hadoop.hbase.client.AsyncProcess$BatchErrors.access$1800(
syncProcess.java:227)
        at org.apache.hadoop.hbase.client.AsyncProcess.waitForAllPreviousOpsAnd
eset(AsyncProcess.java:1773)
        at org.apache.hadoop.hbase.client.BufferedMutatorImpl.backgroundFlushCo
mits(BufferedMutatorImpl.java:240)
        at org.apache.hadoop.hbase.client.BufferedMutatorImpl.flush(BufferedMut
torImpl.java:190)
        at org.apache.hadoop.hbase.client.HTable.flushCommits(HTable.java:1434)
        at org.apache.hadoop.hbase.client.HTable.put(HTable.java:1030)
        at HBase.HBaseTestCase.batchInsterRow(HBaseTestCase.java:149)
        at HBase.StorTask.storData(StorTask.java:111)
        at HBase.HttpClientUtil.execute(HttpClientUtil.java:295)
        at HBase.downLoadTask.run(downLoadTask.java:124)
        at java.util.concurrent.ThreadPoolExecutor.runWorker(Unknown Source)
        at java.util.concurrent.ThreadPoolExecutor$Worker.run(Unknown Source)
        at java.lang.Thread.run(Unknown Source)
目前集群主要是用来作为前期的方案测试,所以只有一台regionserver,这个问题是集群的承受能力不够造成的吗,在数据插入时用的是同步的方式查看regionserver已经宕掉

已有(1)人评论

跳转到指定楼层
arsenduan 发表于 2016-9-18 13:36:40
似乎错误不全,被截行了。最好运行的同时看看监控或则查看下机器的内存
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条