分享

请问,Spark能替代MapReduce吗?

liuyu117_86 发表于 2014-5-10 11:26:58 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 3 22450
Spark能替代MapReduce吗?原来代码如何过渡,效率一定会提高?

已有(3)人评论

跳转到指定楼层
howtodown 发表于 2014-5-10 11:47:17
一个事物的产生必有他的原因,他们也有各自的使用场景:
hadoop也在不断改进mapreduce,例如都认为mapreduce是读取磁盘数据,其实也是可以使用内存的。详细可参考:hadoop作业调优参数整理及原理
mapreduce也有自己的应用场景,比方在目前日志分析用的比较多,还有做搜素的索引,机器学习算法包mahout也是之一。

Spark适用于需要多次操作特定数据集的应用场合。需要反复操作的次数越多,所需读取的数据量越大,受益越大,数据量小但是计算密集度较大的场合,受益就相对较小。

他们都有各自的适用场景,如同window与Linux,虽然存在竞争关系,但是取代的可能性不大。
回复

使用道具 举报

灰太狼_V0 发表于 2014-5-10 23:00:32
SPARK的优势是内存计算,当数据都能被加载到内存的话SPARK的优势最大。
但是不是所有应用的数据内存都放得下的。
所以说SPARK和MAPRED的受众就不一样,无所谓谁代替谁了。
回复

使用道具 举报

zhujun182104906 发表于 2015-3-20 15:23:25
所以还是hadoop做海量数据的离线处理而spark做少量数据的实时计算比较好
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条