七牛是如何搞定每天500亿条日志的

查看数: 18816 | 评论数: 4 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2015-7-31 16:49

正文摘要:

问题导读 1、Flume和Kafka使用要点有哪些? 2、数据离线和实时计算采用什么方法? 3、Flume+Kafka+Spark 结合起来是如何处理500亿条日志? 摘要:7月30日,七牛数据平台工程师王团结就七牛内部使用 ...

回复

tang 发表于 2015-8-1 10:40:32
QIDOUDOU 发表于 2015-8-1 10:31:45
向牛人学习
rancho 发表于 2015-8-1 01:41:02
刚开始弄大数据这块   我想问下有没有什么地方可以下载用户记录的   想要大量的测试数据  气象局那个ftp貌似不稳定
jsjupc_geyf 发表于 2015-7-31 22:11:23
好贴,必顶,加油加油!!!!
关闭

推荐上一条 /2 下一条