分享

spark-shell报错Please check the values of 'yarn.scheduler.maximum-allocation-mb'

如图所示,根据CDH官方的介绍,运行spark-shell报错16/06/02 21:01:27 ERROR spark.SparkContext: Error initializing SparkContext.java.lang.IllegalArgumentException: Required executor memory (1024+384 MB) is above the max threshold (1024 MB) of this cluster! Please check the values of 'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.
求解答

报错

报错

已有(1)人评论

跳转到指定楼层
einhep 发表于 2016-6-3 13:57:16
内存有点小,把这个配置大一些
'yarn.scheduler.maximum-allocation-mb' and/or 'yarn.nodemanager.resource.memory-mb'.
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条