搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
交流区
›
技术交流
›
HDFS
›
HDFS数据传输的组织形式
0
3
0
分享
HDFS数据传输的组织形式
oYaoXiang1
发表于 2013-10-25 10:46:16
[显示全部楼层]
阅读模式
关闭右栏
3
7549
HDFS传输数据时是发送数据包(Packet)的形式,而Packet = Header + Checksum + Data.每个数据包(Packet)包含很多个Chunk,每次向Packet中写数据的时候是一次写一个Chunk,然后把Chunk的checksum和实际数据分别写入Checksum部分和Data部分,直到Packet写满为止。
:为什么按照每次写入一个Chunk的形式写数据吗?一次写入所有数据并计算checksum不可以么吗?
请大虾解答下,thx~~
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
已有(3)人评论
电梯直达
正序浏览
shihailong123
发表于 2013-10-25 10:46:16
回复
1#
appletreer
看到有人这样解释:
[color=]1、实际是接收到了一个完整的packet在写磁盘的。不是每个chunk就写;
[color=]2、不集中校验的目的,应该是为了及早发现,正常情况下应该是没有区别的, 主要应该是为了避免异常情况下的额外数据传输。
回复
使用道具
举报
显身卡
when30
发表于 2013-10-25 10:46:16
回复
2#
hadoopor
从Client向Datanode写数据的时候,也是把chunk写到Packet里,等Packet写满后把Packet放倒dataQueue里面,然后发送出去。那这里分chunk写入Packet也是为了校验的时候能早点发现异常吗?如果发现异常的话,是不是该Packet就放弃然后重新写了呢吗?
thx~
回复
使用道具
举报
显身卡
mexiang
发表于 2013-10-25 10:46:16
回复
3#
appletreer
我理解应当是这样,不过一个packet只有64K,而一个chunk只有512字节,所以如果以packet为单位进行checksum是不是更好了吗?
回复
使用道具
举报
显身卡
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
oYaoXiang1
中级会员
关注
43
主题
125
帖子
3
粉丝
TA的主题
简单打包了一个apk,用百度MTC测试发现不少终端安装不上
2013-12-17
MapReduce数据存储
2013-10-26
HDFS数据传输的组织形式
2013-10-25
HDFS命令行接口
2013-10-25
打开 DFS Locations时候就出现这个错误 是怎么回事
2013-10-25
24小时热文
矩阵分析引论罗家洪(第四版)
互联网大厂年终福利曝光:看看别人家老板怎
像高手一样发言:七种常见工作场景的说话之
携程允许员工春节回乡办公2个月
数据治理实施方案
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈