分享

spark集群问题

UFO 发表于 2016-3-24 20:46:54 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 3 6830
请教一个问题,spark集群(Hadoop集群应该也是一样)启动的时候,只需在一个主节点start-all,就会自动将从节点启动,那从节点的安装目录是不是一定要和主节点一样,还有启动从节点都是以什么角色去启动(是否root)

已有(3)人评论

跳转到指定楼层
atsky123 发表于 2016-3-24 22:30:25
集群之间是需要通信的,楼主部署一个hadoop集群就明白了。
hadoop是分布式的,master上可以执行命令,远程启动slave。

回复

使用道具 举报

Alkaloid0515 发表于 2016-3-25 09:06:02
用哪个账户安装的,hadoop安装包属于哪个用户,就用哪个用户启动
回复

使用道具 举报

chimes298 发表于 2016-3-25 15:43:01
1.从节点目录不需要一样,start-all启动的是配置了和主节点免密码ssh的用户环境变量中spark命令的位置,即用which命令得到的路径。
2.也不一定是root,哪个用户配置的免密码ssh登陆,以那个用户起
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条