bob007 发表于 2016-1-16 20:30:00

整理讨论:一个hadoop集群中,如果节点的内存偏小,在处理一些大文件任务时,是时...

缘起缘灭:
请教一个问题,一个hadoop集群中,如果节点的内存偏小,在处理一些大文件任务时,是时间花得更长一点还是任务压根没法执行

枫竹斋:

你若是采用hive类似组建可以时间变长

要是impala这样依赖内存的组建会报内存溢出

执行不了


Clean:

提交的资源大于申请资源的最大值,执行不了


缘起缘灭:

我就是用的hive,在查询一个大文件的行数时,子节点的nodemanager进程老是崩溃

但不知道如何确定是不是机器的内存不够


Clean:


看一下yarn-site和mapreduce-site的资源配置


404:


看下log不就知道原因了


缘起缘灭:


日志里有很多
2016-01-15 17:02:51,634 INFO org.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl: Memory usage of ProcessTree 26436      for container-id container_1452847522275_0004_01_000004: 259.2 MB of 1.5 GB physical memory used; 844.8 MB of 3.1 GB virtual memory used
这种信息,是不是可以确定机器内存不够了


404:
内存不足


缘起缘灭:

怎么加大
枫竹斋



因为内存不足分配容器不够

斯塔尼亚


yarn.nodemanager.resource.memory-mb


缘起缘灭

这个值是不是一定要设成物理内存的大小


斯塔尼亚

不是

你物理内存还要留给系统点呢对吧

如果不止有yarn管理的东西,还有其他东西依赖的呢


缘起缘灭


那就是要设得比物理内存小点吗?


感谢各位,试了一下,把yarn.nodemanager.resource.memory-mb的值设得小一点后程序就正常了



#######################################################
总结:

日志里有很多
2016-01-15 17:02:51,634 INFO org.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl: Memory usage of ProcessTree 26436      for container-id container_1452847522275_0004_01_000004: 259.2 MB of 1.5 GB physical memory used; 844.8 MB of 3.1 GB virtual memory used
像这种信息不一定是不够,而是由于yarn.nodemanager.resource.memory-mb与实际的物理内存不符或则设置过大造成的



页: [1]
查看完整版本: 整理讨论:一个hadoop集群中,如果节点的内存偏小,在处理一些大文件任务时,是时...