分享

Hadoop集群问题

UFO 发表于 2016-3-24 20:48:00 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 1 7150
请教一个问题,spark集群(Hadoop集群应该也是一样)启动的时候,只需在主节点start-all,就会自动将从节点启动,那从节点的安装目录是不是一定要和主节点一样,还有启动从节点都是以什么角色去启动(是否root)

已有(1)人评论

跳转到指定楼层
atsky123 发表于 2016-3-24 22:29:36
集群之间是需要通信的,楼主部署一个hadoop集群就明白了。
hadoop是分布式的,master上可以执行命令,远程启动slave。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条