分享

spark开发环境中,如何将源码打包提交到集群

本帖最后由 levycui 于 2017-2-14 15:04 编辑
问题导读:
1、如何使用IDEA打包jar文件?
2、如何使用spark-submit提交任务?
3、spark-submit提交参数有哪些?




1、IDEA 打包
示例代码参考AMPCamp2015之SparkSQL,开发环境使用idea。首先需要将程序打包成jar
20150619160108590.png

选择project structure --》artifacts ,由于集群已经有了运行依赖的jar包,打包时可以将这些jar包排除出去,以减小打包后的jar包的大小。
20150619160600407.png

点击ok,然后选择build --》build artifacts,SparkSQLTest --》build,然后在工程目录的子目录下会生成j对应的jar文件:
20150619161020568.png


2、提交任务
首先启动集群,然后客户端来到spark-submit目录:/app/hadoop/spark131/bin
20150619161229950.png

park-submit通过命令行的方式提交任务,具体参数信息如下参考
20150619161414339.png
提交示例如下:
20150619161539349.png
在命令行输入如下命令:
[mw_shl_code=shell,true]./spark-submit  --class SparkSQLTest --master spark:hadoop1:7077 --executor-memory 2g --num-executors 3  /home/kaiseu/MyProject/IdeaProjects/SparkProject/Saprk131/out/artifacts/SparkSQLTest_jar/SparkSQLTest.jar[/mw_shl_code]
20150619162047032.png

在web监控界面可以看到:
20150619162257546.png

3、运行结果
结果如下:
20150619162423662.png

来源:CSDN
作者:kaiseu

已有(2)人评论

跳转到指定楼层
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条