Spark On Yarn 中Executor 内存分配的机制
本帖最后由 喵十八 于 2018-10-29 20:03 编辑问题导读
1. Spark On Yarn 下executor-memory 参数如何生效?
2. Cluster 和 Client 模式中 内存开销的区别?
3. 规整化因子是什么?
关注最新经典文章,欢迎关注公众号
http://www.aboutyun.com/data/attachment/forum/201406/15/084659qcxzzg8n59b6zejp.jpg
综述
提交任务时,配置的executor-memory 的参数,设置为6g,结果实际运行中,占据的资源算下来,每个executor 使用的却接近7个g,被管理集群的同事找上门,逃。
那么,为何会配置的参数没有生效呢?
Spark 任务提交
Spark提交任务首先由客户端(Client)生成一个Spark Driver,Spark Driver在YARN的NOdeManager中生成一个ApplicationMaster,ApplicationMaster向YARN Resourcemanager申请资源(这些资源就是NodeManager封装的Container,其中包含内存和cpu),接着Spark Driver调度并运行任务。
在Cluster模式下,提交完任务,Client就可以离开了。而在Client模式下,Client不能离开。
Spark 内存分配
Spark的Excutor的Container内存有两大部分组成:堆外内存和Excutor内存。
其中
堆外内存
由spark.yarn.executor.memoryOverhead参数设置。主要用于JVM自身的开销。默认:MAX(executorMemory*0.10,384MB)
这里384 的含义为,JVM自身开销,最小的需求是384MB
Excutor内存
由spark.executor.memory参数设置,分为两部分。
Execution:shuffle、排序、聚合等用于计算的内存
Storage:用于集群中缓冲和传播内部数据的内存(cache、广播变量)
实际分配Executor 内存的计算
关于Executor 计算的相关公式,见源码org.apache.spark.deploy.yarn.Clent,org.apache.spark.deploy.yarn.ClentArguments
主要部分如下
var executorMemory = 1024 // 默认值,1024MB
val MEMORY_OVERHEAD_FACTOR = 0.10// OverHead 比例参数,默认0.1
val MEMORY_OVERHEAD_MIN = 384
val executorMemoryOverhead = sparkConf.getInt("spark.yarn.executor.memoryOverhead",
math.max((MEMORY_OVERHEAD_FACTOR * executorMemory).toInt, MEMORY_OVERHEAD_MIN))
// 假设有设置参数,即获取参数,否则使用executorMemoryOverhead 的默认值
val executorMem = args.executorMemory + executorMemoryOverhead
// 最终分配的executor 内存为 两部分的和
好,现在回到我们的问题中,我们的提交命令为:
spark-submit --master yarn-cluster --name test --driver-memory 6g --executor-memory 6g
设置的executor-memory 大小为6g,executorMemoryOverhead为默认值,即max(6g*0.1,384MB)=612MB
那总得大小应该为6144MB+612MB=6756MB
然而实际的开销为 7168 MB为什么?
这就涉及到了规整化因子。
规整化因子介绍
为了易于管理资源和调度资源,Hadoop YARN内置了资源规整化算法,它规定了最小可申请资源量、最大可申请资源量和资源规整化因子,如果应用程序申请的资源量小于最小可申请资源量,则YARN会将其大小改为最小可申请量,也就是说,应用程序获得资源不会小于自己申请的资源,但也不一定相等;如果应用程序申请的资源量大于最大可申请资源量,则会抛出异常,无法申请成功;规整化因子是用来规整化应用程序资源的,应用程序申请的资源如果不是该因子的整数倍,则将被修改为最小的整数倍对应的值,公式为ceil(a/b)*b,其中a是应用程序申请的资源,b为规整化因子。
比如,在yarn-site.xml中设置,相关参数如下:
yarn.scheduler.minimum-allocation-mb:最小可申请内存量,默认是1024
yarn.scheduler.minimum-allocation-vcores:最小可申请CPU数,默认是1
yarn.scheduler.maximum-allocation-mb:最大可申请内存量,默认是8096
yarn.scheduler.maximum-allocation-vcores:最大可申请CPU数,默认是4
对于规整化因子,不同调度器不同,具体如下:
FIFO和Capacity Scheduler,规整化因子等于最小可申请资源量,不可单独配置。
Fair Scheduler:规整化因子通过参数yarn.scheduler.increment-allocation-mb和yarn.scheduler.increment-allocation-vcores设置,默认是1024和1。
通过以上介绍可知,应用程序申请到资源量可能大于资源申请的资源量,比如YARN的最小可申请资源内存量为1024,规整因子是1024,如果一个应用程序申请1500内存,则会得到2048内存,如果规整因子是512,则得到1536内存。
具体到我们的集群而言,使用的是默认值1024MB,因而最终分配的值为
ceil(6756/1024)*1024 = 7168
Client 和Cluster 内存分配的差异
在使用Clietn 和 Cluster 两种方式提交时,资源开销占用也是不同的。
不管CLient或CLuster模式下,ApplicationMaster都会占用一个Container来运行;而Client模式下的Container默认有1G内存,1个cpu核,Cluster模式下则使用driver-memory和driver-cpu来指定;
cluster 提交命令 与 资源占用
spark-submit --master yarn-cluster --name testClient --driver-memory 6g --executor-memory 6g--num-executors 10
一共10个executor,加上一个am,共11个,每个都分配了7g,即7*1024*11=78848
client提交命令 与 资源占用
spark-submit --master yarn-client --name testClient --driver-memory 6g --executor-memory 6g--num-executors 10
同样是10个executor,每个分配7g,但是am只有1g,因而占用 7*1024*10+1*1024=72704
总结
虽然Spark 中用executor-memory 参数控制每个executor 的内存,但是,实际分配多少内存,还有一定的处理机制,需要跟踪源码来发掘。
mark!!!!
感谢分享 666666 你好,后面关于client和cluster模式提交任务的区别每太看懂,每个都分配7G,这个7G是怎么计算得来的? 叶孤城 发表于 2019-1-24 10:28
你好,后面关于client和cluster模式提交任务的区别每太看懂,每个都分配7G,这个7G是怎么计算得来的?
应该是 6 + 1G 的规整化因子吧
页:
[1]