分享

spark安装总结

xw2016 2016-5-31 23:40:03 发表于 小知识点 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 3 6747
折腾了一个多星期,发了N个帖子求助和查资料,终于将spark的Standalone安装解决了,总结如下:主要分Standalone,基于文件系统的Standalone, 基于zookeeper 的Standalone HA,以下为spark-env.sh配置:

1. Standalone
export SPARK_MASTER_ID=yun01-nn-01
export SPARK_MASTER_PORT=7077
export SPARK_WORK_CORES=1
export SPARK_WORK_INSTANCES=1
export SPARK_WORK_MEMORY=1g


2. 基于文件系统的Standalone
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/application/hadoop/spark/recovery"

export SPARK_MASTER_ID=yun01-nn-01
export SPARK_MASTER_PORT=7077
export SPARK_WORK_CORES=1
export SPARK_WORK_INSTANCES=1
export SPARK_WORK_MEMORY=1g

3.基于zookeeper 的Standalone HA
export SPARK_WORK_CORES=1
export SPARK_WORK_INSTANCES=1
export SPARK_WORK_MEMORY=1g
export SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=yun01-nn-02:2181,yun01-dn-01:2181,yun01-dn-02:2181 -Dspark.deploy.zookeeper.dir=/spark"

已有(3)人评论

跳转到指定楼层
yuwenge 发表于 2016-6-1 08:38:06
不断坚持,会有成效的。

回复

使用道具 举报

w123aw 发表于 2016-6-1 08:51:01
希望楼主有后续更新,遇到了哪些问题,如何解决的。
回复

使用道具 举报

zhujun182104906 发表于 2016-6-2 14:06:12
有配置和说明更好
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条