搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
交流区
›
技术交流
›
HDFS
›
请问,当从本地向hdfs复制文件时,且本地文件非常大,hd ...
0
4
0
分享
请问,当从本地向hdfs复制文件时,且本地文件非常大,hdfs是如何存储它的
llike90
发表于 2013-10-25 10:45:56
[显示全部楼层]
阅读模式
关闭右栏
4
11860
请问,当从本地向hdfs复制文件时,且本地文件非常大,hdfs是如何存储它的吗?如何分块吗?
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
已有(4)人评论
电梯直达
正序浏览
starrycheng
发表于 2013-10-25 10:45:56
从文件头开始均匀按块划分,各块均衡地分布存储到集群的各节点上,默认每块大小为64M,而且是完全地存储在DataNode节点上,以文件的形式存在.
回复
使用道具
举报
显身卡
shihailong123
发表于 2013-10-25 10:45:56
回复
2#
eyjian
各块均衡地分布存储到集群的各节点上吗? 你的意思是各个分块分布在datanode上存储吗?
应该是在每个datanode上存储一个副本吧吗?
回复
使用道具
举报
显身卡
yunjisuanxue
发表于 2013-10-25 10:45:56
回复
2#
eyjian
提问,也就是说不会并行写入吗?假如文件大小超过dfs.block.size设置,那么文件将会放到多个节点上(每个节点一个block),写入文件时顺序写每个block,而不是并行同时写吗吗?
回复
使用道具
举报
显身卡
sq331335144
发表于 2013-10-25 10:45:56
回复
4#
feelflying
HDFS不支持对同一个文件多用户写,只能是一个用户写,当写入文件时先是在本地憋够一个Block的大小再写到HDFS中的,就算超过了block size,文件也只是分成了几个block,第一份的blocks先是写到其中一个节点,然后再流传输到其它节点。可能写入时的节点间流传输,算得上并行写入吧,不过是用在备份的。所以,节点的增加应该也提升不了写入的性能。还是加机器的配置和网络带宽吧。
没记错的话,应该是这样,你可以看看api的实现。
回复
使用道具
举报
显身卡
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
llike90
新手上路
关注
55
主题
139
帖子
3
粉丝
TA的主题
移动应用 应该可以和 网站应用 共用一个数据库吧问题问题
2013-12-17
裸体跪求高手phoneGap ToastPlugin 插件运用
2013-12-17
请问下,运用phonegap插件有啥信息推送的方案问题
2013-12-17
移动应用 有没有自动升级的插件或功能问题
2013-12-17
提示:“解析程序包时出现错误”
2013-12-17
24小时热文
像高手一样发言:七种常见工作场景的说话之
幕后产品:打造突破式产品思维
副业警钟,新型法律碰瓷发财方式:批量诉讼
Spark机器学习
Spark机器学习算法、源码及实战详解
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈