fylanyu 发表于 2013-10-25 10:45:15

关于hadoop block问题

如果设置一个block为64M,实际写入每个block的文件大小只有2M,实际给hadoop的HDFS分配的硬盘空间有10G,
请问当前能分配多少个block吗?是10G/64M还是10G/2M吗?

ruanhero 发表于 2013-10-25 10:45:15

10G/2M

lxs_huntingjob 发表于 2013-10-25 10:45:15

谢谢,已经测试过是后者,多谢

RnD_Alex 发表于 2013-10-25 10:45:15

小文件,不是1个block里可以有很多个文件吗吗?那应该是10G/64M个block才对呀。

atsky123 发表于 2013-10-25 10:45:15

后者,64M的block中,只填了2M的实际数据

lijian123841314 发表于 2013-10-25 10:45:15

楼主说,一个block为64M,实际写入每个block的文件大小为2M。一个文件是怎样分配到数据块中的,每个block写入的文件的大小是不同的啊!这样的话,怎么来计算分配多少个数据块呢吗?
页: [1]
查看完整版本: 关于hadoop block问题