关于hadoop block问题
如果设置一个block为64M,实际写入每个block的文件大小只有2M,实际给hadoop的HDFS分配的硬盘空间有10G,请问当前能分配多少个block吗?是10G/64M还是10G/2M吗? 10G/2M 谢谢,已经测试过是后者,多谢 小文件,不是1个block里可以有很多个文件吗吗?那应该是10G/64M个block才对呀。 后者,64M的block中,只填了2M的实际数据 楼主说,一个block为64M,实际写入每个block的文件大小为2M。一个文件是怎样分配到数据块中的,每个block写入的文件的大小是不同的啊!这样的话,怎么来计算分配多少个数据块呢吗?
页:
[1]