7077只是默认端口,你修改下spark-env.sh文件就可以了。
然后指定master,
比如某台机器
192.168.1.110
然后端口配置为1021
执行下面命令即可:这样不就即指定了master,又不使用7077端口了。【7077端口见下面】
./bin/spark-submit \
--class org.apache.spark.examples.SparkPi \
--master spark://master:1021 \
--executor-memory 20G \
--total-executor-cores 100 \
/path/to/examples.jar \
1000
你可以通过conf/spark-env.sh进一步配置整个集群的环境变量。这个文件可以用conf/spark-env.sh.template当模版复制生成。然后,复制到所有的worker机器上才奏效。下面给出一些可选的参数以及含义: Environment Variable | Meaning | SPARK_MASTER_IP | 绑定一个外部IP给master. | SPARK_MASTER_PORT | 从另外一个端口启动master(默认: 7077) | SPARK_MASTER_WEBUI_PORT | Master的web UI端口 (默认: 8080) | SPARK_WORKER_PORT | 启动Spark worker 的专用端口(默认:随机) | SPARK_WORKER_DIR | 伸缩空间和日志输入的目录路径(默认: SPARK_HOME/work); | SPARK_WORKER_CORES | 作业可用的CPU内核数量(默认: 所有可用的); | SPARK_WORKER_MEMORY | 作业可使用的内存容量,默认格式1000M或者 2G (默认: 所有RAM去掉给操作系统用的1 GB);注意:每个作业自己的内存空间由SPARK_MEM决定。 | SPARK_WORKER_WEBUI_PORT | worker 的web UI 启动端口(默认: 8081) | SPARK_WORKER_INSTANCES | 没太机器上运行worker数量 (默认: 1). 当你有一个非常强大的计算机的时候和需要多个Spark worker进程的时候你可以修改这个默认值大于1 . 如果你设置了这个值。要确保SPARK_WORKER_CORE 明确限制每一个r worker的核心数, 否则每个worker 将尝试使用所有的核心 | SPARK_DAEMON_MEMORY | 分配给Spark master和 worker 守护进程的内存空间 (默认: 512m) | SPARK_DAEMON_JAVA_OPTS | Spark master 和 worker守护进程的JVM 选项(默认: none) |
注意: 启动脚本目前不支持Windows。要运行一个Spark 集群在Windows上,手动启动master 和 workers
|