分享

用flume收集mapreduce的日志到hdfs,怎么一个hadoop jar产生一个日志文件

shlp 发表于 2015-11-25 21:05:18 [显示全部楼层] 只看大图 回帖奖励 阅读模式 关闭右栏 11 20419
用flume收集mapreduce的日志到hdfs(通过在log4j配置文件里面增加一个到flume的appender),怎么让一个hadoop jar *命令产生一个日志文件存储在hdfs上?

已有(11)人评论

跳转到指定楼层
shlp 发表于 2015-11-25 21:09:21
同样一个storm jar ...一个日志文件怎么实现
回复

使用道具 举报

jixianqiuxue 发表于 2015-11-25 21:26:00
shlp 发表于 2015-11-25 21:09
同样一个storm jar ...一个日志文件怎么实现

(通过在log4j配置文件里面增加一个到flume的appender)这个没看明白楼主是什么意思。
hadoop jar
storm jar
这只是运行命令,启动的是自己的程序。因为在程序里实现即可。
回复

使用道具 举报

bioger_hit 发表于 2015-11-25 21:36:16
hadoop jar 里面直接将日志放到hdfs亦可
回复

使用道具 举报

shlp 发表于 2015-11-25 21:52:34
jixianqiuxue 发表于 2015-11-25 21:26
(通过在log4j配置文件里面增加一个到flume的appender)这个没看明白楼主是什么意思。
hadoop jar
sto ...

是这个意思,我先通过这种方式将日志输到flume,然后flume的sink端是hdfs
捕获.PNG
回复

使用道具 举报

shlp 发表于 2015-11-25 21:57:10
bioger_hit 发表于 2015-11-25 21:36
hadoop jar 里面直接将日志放到hdfs亦可

没明白。。需求是说要将不同的日记都收集到flume上,但是要区分开哪些日志是由哪些任务产生,可能由mapreduce产生,也可能由storm产生,要求做到一个job或者叫任务产生一个日志文件最后存在hdfs上。
捕获.PNG
回复

使用道具 举报

bioger_hit 发表于 2015-11-25 21:59:27
shlp 发表于 2015-11-25 21:57
没明白。。需求是说要将不同的日记都收集到flume上,但是要区分开哪些日志是由哪些任务产生,可能由mapre ...

log4j可以自定义用户名和路径。
storm到storm文件,并且做个标识
同理hadoop也是
回复

使用道具 举报

shlp 发表于 2015-11-26 09:44:08
bioger_hit 发表于 2015-11-25 21:59
log4j可以自定义用户名和路径。
storm到storm文件,并且做个标识
同理hadoop也是

按然后可以一个storm jar命令产生一个日志文件?有没有链接啊,
回复

使用道具 举报

lmlm1234 发表于 2015-11-26 13:48:16
用flume收集mapreduce的日志到hdfs
回复

使用道具 举报

shlp 发表于 2015-11-26 14:21:40
lmlm1234 发表于 2015-11-26 13:48
用flume收集mapreduce的日志到hdfs

是啊,但我想要一个“hadoop jar hadoop-mapreduce-examples-2.6.0.jar wordcount /input/ /output”比方这样一条命令在hdfs上产生一个日志文件怎么实现啊?
回复

使用道具 举报

12下一页
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条