Flume,Spooldir收集发送到HDFS上,size存储太小

查看数: 7489 | 评论数: 4 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2016-3-31 15:17

正文摘要:

铜锁Spooldir收集为什么日志存储到HDFS上的时候,把内容分为很多个 log 存储,而且每个log的size存储的内容才 653B; 如图 而且为什么不能一行一行的排列好呢

回复

atsky123 发表于 2016-3-31 16:33:40
神豪。 发表于 2016-3-31 16:02
好像没用,我都设置成9999999了。

设置成这样,flume就不会传递数据了。楼主的设置还是有问题
神豪。 发表于 2016-3-31 16:02:33
atsky123 发表于 2016-3-31 15:51
滚动方式设置成:
rollSize=1000000
在hdfs上应该没问题

好像没用,我都设置成9999999了。
atsky123 发表于 2016-3-31 15:51:06
滚动方式设置成:
rollSize=1000000
在hdfs上应该没问题
关闭

推荐上一条 /2 下一条