分享

hadoop中map和reduce的数量设置

hyj 2013-11-29 17:18:16 发表于 总结型 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 4 39008
提示: 作者被禁止或删除 内容自动屏蔽

已有(4)人评论

跳转到指定楼层
tang 发表于 2015-3-7 13:28:10
学习了,没考虑过这么多
回复

使用道具 举报

hellom 发表于 2015-8-14 17:38:25
回复

使用道具 举报

亮哥 发表于 2017-1-9 23:22:17
但是每个文件的size都小于HDFS的blockSize,那么会造成启动的Mapper等于文件的数量(即每个文件都占据了一个block)
---这句话不对,当存储文件大小小于block尺寸时,按照实际尺寸存放,不会单独占用一个block
回复

使用道具 举报

evababy 发表于 2017-7-31 15:14:51
请问如果文件资源足够大,已经大大超出最大负载能力,那么通过集群总资源(内存)等参数控制,该如何控制呢?谢谢

问题贴
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条