本帖最后由 chyeers 于 2015-9-14 21:38 编辑
在spark-submit提交job的时候,会有一些依赖包,通过 SPARK_CLASSPATH配置指明依赖包位置可以方便很多,但是在 standalone cluster提交过程中报错
[mw_shl_code=shell,true]org.apache.spark.SparkException: Found both spark.driver.extraClassPath and SPARK_CLASSPATH. Use only the former.[/mw_shl_code]
但是提交命令中没有指定spark.driver.extraClassPath,spark-env.sh,spark-defaults.conf也没有指定spark.driver.extraClassPath[mw_shl_code=shell,true]spark-submit --master spark://hdpb-005:6066 \
--class FromKafkaToPhoenix \
--deploy-mode cluster \
--supervise \
--executor-memory 4G \
--total-executor-cores 16 \
hdfs://h005:9000/spark/lib/test.jar 192.168.10.1:9092 testkafka[/mw_shl_code]
|
|