spark-shell报错Please check the values of 'yarn.scheduler.maximum-allocation-mb'

查看数: 23634 | 评论数: 1 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2016-6-2 21:13

正文摘要:

如图所示,根据CDH官方的介绍,运行spark-shell报错16/06/02 21:01:27 ERROR spark.SparkContext: Error initializing SparkContext.java.lang.IllegalArgumentException: Required executor memory (1024+384 MB) i ...

回复

einhep 发表于 2016-6-3 13:57:16
内存有点小,把这个配置大一些
'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.
关闭

推荐上一条 /2 下一条