立即注册
登录
About云-梭伦科技
返回首页
gefieder的个人空间
https://aboutyun.com/?18
[收藏]
[复制]
[分享]
[RSS]
空间首页
动态
记录
日志
相册
主题
分享
留言板
个人资料
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
首页
Portal
专题
BBS
面试
办公|编程助手
更多
我的空间
好友
帖子
收藏
道具
勋章
任务
动态
日志
相册
分享
记录
留言板
群组
导读
日志
Hadoop中NullWritable不能乱用
热度
1
已有 1538 次阅读
2014-12-18 13:37
在hadoop 0.20.2版本中,各位有没有想过为什么wordcount实例 , map输出的value不用 NullWritalbe ? 实际上value 其实就起到了一个占位的作用。于是我自作聪明地改写了程序,把map的输出改成了NullWritable,结果发现在shuffle的过程中,并没有达到相同的key合并的效果。
具体原因有待进一步查明
路过
雷人
握手
鲜花
鸡蛋
收藏
分享
邀请
举报
全部
作者的其他最新日志
•
Centralized Cache Management in HDFS
•
HBase Call to namenodename:9000 failed on local exception: java.io.EOFException
发表评论
评论 (
3
个评论)
回复
songyl525
2014-12-28 20:48
NullWritalbe,其实就是null,在shuffle的时候是不进行运算的
回复
songyl525
2014-12-28 20:49
应该是这样吧
回复
gefieder
2014-12-29 10:28
songyl525
: NullWritalbe,其实就是null,在shuffle的时候是不进行运算的
说的有道理
涂鸦板
您需要登录后才可以评论
登录
|
立即注册
评论
gefieder
加为好友
给我留言
打个招呼
发送消息
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈