数据需要解析,因为分两条路的,这个解决了,按照flume源码将kafka里的数据重封装会Event,然后取其中的body就ok了 |
本帖最后由 arsenduan 于 2016-9-20 15:41 编辑 既然使用flume不需要自己取数据的。可以配置下sink,通过flume传递到你想传递的位置 |
pq2527991 发表于 2016-9-20 10:07 尝试kafka consumer 存储的数据,直接取可能会存在问题,比如楼主直接查看hdfs文件,应该也存在问题 |
那两个图没显示出来,一个是 SinkRunner-PollingRunner-DefaultSinkProcessor) [INFO - org.apache.flume.sink.LoggerSink.process(LoggerSink.java:94)] Event: { he aders:{testkey=3333} body: 33 33 33 33 3333 } 另外一个是 testkey22dsds3434 |