正如楼上所说,直白点就是:
在hadoop正常运行的情况下,此时正在进行写操作.由于写操作的流程如下:
1....
2.将数据流发送给具有租约的某一个节点,不仿设为D1.D1把数据分发给D2,D2在把数据分发给D3.
3...
如果在第二步中,或是后继步中,出现D1,D2,D3, 中的任意一个节点挂机了.那么该block的version增加1.
不知道楼上是不是这个意识.
另外,是否有其他情况会改变version.
因为我现在想升级分布式文件系统,比较害怕数据丢失,
此外,请教一个,在升级的过程中,是否应该先kill掉master然后在kill掉其他节点.这样是不是要好些. |