分享

[求助]spoolDir与hdfssink的两个报错channel is full和hdfs IO Error

张璐 发表于 2016-3-7 15:18:47 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 7 39178

使用flume采集数据一个文件10m左右,1小时14G左右
用spooldir做source,直接存入hdfs,
问题一:
SpoolDirectorySource总是出现channel is full的告警,修改source的batchSize 从100到1000没有效果,我看学习区里说:batchSize要source和sink一致. 我是遵守的.
   这里有个小问题,maxBackoff 应该是channel满后多长时间再试,我设了3000没有生效的感觉.他是按着250 500 1000的递增的.
问题二:
可能是引起问题一的原因,hdfs sink报 IO error(报错在下面),我看以前有人解决是把10s的超时,改成40s,这个有点掩耳盗铃.前面的Error while trying to hflushOrSync!是有时出,有时不出.,
影响:
用flume入hdfs的速度超级慢,1小时最多入10G数据.10G数据用put不到10分钟就好了.看到hdfs的IO(用cloudera manager看)没有到达峰值.iostat 看当时硬盘io也不高,没有fs坏块,所以,也不知道怎么搞了.


我的配置
[mw_shl_code=shell,true]
# conf: A single-node Flume configuration
# Name the components on this agent
z2.sources = src1
z2.sinks = sk1
z2.channels = ch1
#
# # Describe/configure the source
z2.sources.src1.type = spooldir
z2.sources.src1.spoolDir = /cup/d0/flume/traffica/vlr
z2.sources.src1.ignorePattern=^(.)*\\.tmp$
z2.sources.src1.deletePolicy =immediate
z2.sources.src1.maxBackoff = 3000
z2.sources.src1.batchSize = 1000
#
# # Describe the sink
z2.sinks.sk1.type = hdfs
z2.sinks.sk1.hdfs.path = /metadata/external/traffica/vlr
z2.sinks.sk1.hdfs.filePrefix = vlr
z2.sinks.sk1.hdfs.rollInterval = 3600
z2.sinks.sk1.hdfs.rollSize = 128000000
z2.sinks.sk1.hdfs.rollCount = 0
z2.sinks.sk1.hdfs.batchSize = 1000
z2.sinks.sk1.hdfs.threadsPoolSize = 1
z2.sinks.sk1.hdfs.fileType = SequenceFile
# z2.sinks.sk1.hdfs.codeC = gzip
#
#
# # Use a channel which buffers events in memory
z2.channels.ch1.type = memory
z2.channels.ch1.capacity = 10000
z2.channels.ch1.transactionCapacity = 1000
# z2.channels.ch1.byteCapacity = 1000000000  
#
# # Bind the source and sink to the channel
z2.sources.src1.channels = ch1
z2.sinks.sk1.channel = ch1[/mw_shl_code]
[mw_shl_code=applescript,true]16/03/07 14:41:43 WARN source.SpoolDirectorySource: The channel is full, and cannot write data now. The source will try again after 250 milliseconds
16/03/07 14:41:44 INFO avro.ReliableSpoolingFileEventReader: Last read was never committed - resetting mark position.
16/03/07 14:41:47 WARN source.SpoolDirectorySource: The channel is full, and cannot write data now. The source will try again after 500 milliseconds
16/03/07 14:41:47 INFO avro.ReliableSpoolingFileEventReader: Last read was never committed - resetting mark position.
16/03/07 14:41:50 WARN source.SpoolDirectorySource: The channel is full, and cannot write data now. The source will try again after 1000 milliseconds
16/03/07 14:41:50 ERROR hdfs.AbstractHDFSWriter: Error while trying to hflushOrSync!
16/03/07 14:41:50 WARN hdfs.HDFSEventSink: HDFS IO error
java.io.IOException: Callable timed out after 10000 ms on file: /metadata/external/traffica/vlr/vlr.1457332875794.tmp
        at org.apache.flume.sink.hdfs.BucketWriter.callWithTimeout(BucketWriter.java:693)
        at org.apache.flume.sink.hdfs.BucketWriter.doFlush(BucketWriter.java:459)
        at org.apache.flume.sink.hdfs.BucketWriter.flush(BucketWriter.java:421)
        at org.apache.flume.sink.hdfs.BucketWriter.append(BucketWriter.java:573)
        at org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:418)
        at org.apache.flume.sink.DefaultSinkProcessor.process(DefaultSinkProcessor.java:68)
        at org.apache.flume.SinkRunner$PollingRunner.run(SinkRunner.java:147)
        at java.lang.Thread.run(Thread.java:745)
Caused by: java.util.concurrent.TimeoutException
        at java.util.concurrent.FutureTask.get(FutureTask.java:201)
        at org.apache.flume.sink.hdfs.BucketWriter.callWithTimeout(BucketWriter.java:686)
        ... 7 more[/mw_shl_code]




已有(7)人评论

跳转到指定楼层
atsky123 发表于 2016-3-7 16:10:12
楼主这两个太大了,建议调小。很可能是磁盘空间不够了。
时间改成10甚至更小,同样rollSize 改成10,最好按照一种滚动方式。
z2.sinks.sk1.hdfs.rollInterval = 3600
z2.sinks.sk1.hdfs.rollSize = 128000000

回复

使用道具 举报

张璐 发表于 2016-3-7 16:33:04
atsky123 发表于 2016-3-7 16:10
楼主这两个太大了,建议调小。很可能是磁盘空间不够了。
时间改成10甚至更小,同样rollSize 改成10,最好 ...

这两条我的理解是最多1小时生成一个新的hdfs文件(这个可以改小),文件超过128M生成一个新文件,这个我还想再调大点呢,要不然都是零碎的小文件太占空间,我的hdfs一个快是128m,是这个意思吗?
回复

使用道具 举报

张璐 发表于 2016-3-7 16:33:47
张璐 发表于 2016-3-7 16:33
这两条我的理解是最多1小时生成一个新的hdfs文件(这个可以改小),文件超过128M生成一个新文件,这个我还想 ...

空间是够的
回复

使用道具 举报

easthome001 发表于 2016-3-7 16:50:33
看看是不是本地库的问题
回复

使用道具 举报

atsky123 发表于 2016-3-7 16:52:50
张璐 发表于 2016-3-7 16:33
这两条我的理解是最多1小时生成一个新的hdfs文件(这个可以改小),文件超过128M生成一个新文件,这个我还想 ...

先不管是调大,还是调小。先找到问题再说
回复

使用道具 举报

张璐 发表于 2016-3-7 17:29:51
atsky123 发表于 2016-3-7 16:52
先不管是调大,还是调小。先找到问题再说

时间的改小了,还是会报这两个错.报错频率差不多.把rollSize调到远远小于块的大小,没有意义吧,我的hdfs的文件块是128M,那样我的空间浪费太多了,
刚才又把batch调到100,好像报错的频率变少了.




回复

使用道具 举报

张璐 发表于 2016-3-7 17:35:41
easthome001 发表于 2016-3-7 16:50
看看是不是本地库的问题

能说的具体一点吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条