一个集群节点进行扩容,然后修改了配置参数文件dfs.datanode.data.dir参数后面追加挂载的数据目录,
发现启动时正常,后面索性多修改几个节点发现集群后面修改的DataNode全部启动报错(日志记录在/var/log/hadoop/dfs/hadoop-hdfs-datanode-*.log):
Too many failed volumes - current valid volumes: 1, volumes configured: 4, volumes failed: 3, volume failures tolerated: 0
翻到前面发现存在如下告警:
原因:权限问题,查看正常启动的数据目录权限:
而后面生成的/data2/hadoop/hdfs/data目录权限都是root,修改所属用户和用户组即可(如果权限不一致,修改确保跟正常启动的数据目录权限保持一致),执行如下命令:
# chown -R hdfs:hadoop data