分享

hadoop是如何确定用户所属的group呢?

tntzbzc 发表于 2015-9-6 19:49:41 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 15577


hadoop是如何确定用户所属的group呢?
##############################

下面参考:

hive在生产环境中由于用户数量和身份的不同,难免会对用户按组进行划分,根据不同组的优先级划分Hadoop资源,hadoop fairscheduler支持按用户组划分资源池,每个group对应一个组pool,然后根据pool优先级划分mapreduce资源,在map-site.xml中添加以下配置即可实现按组划分:
[mw_shl_code=xml,true]  <property>
    <name>mapred.jobtracker.taskScheduler</name>
    <value>org.apache.hadoop.mapred.FairScheduler</value>
  </property>
  <property>
    <name>mapred.fairscheduler.poolnameproperty</name>
    <value>group.name</value>
  </property>
  <property>
    <name>mapred.fairscheduler.allocation.file</name>
    <value>/home/jjt/platform/config/hadoop/pools.xml</value>
  </property>[/mw_shl_code]

在pools.xml中可定义了各个组可分配的资源情况:

[mw_shl_code=xml,true]<?xml version="1.0"?>
<allocations>
<pool name="web">
  <minMaps>100</minMaps>
  <minReduces>50</minReduces>
  <maxMaps>20</maxMaps>
  <maxReduces>20</maxReduces>
  <weight>10.0</weight>
  <minSharePreemptionTimeout>300</minSharePreemptionTimeout>
</pool>
<pool name="client">
  <minMaps>20</minMaps>
  <minReduces>15</minReduces>
  <maxMaps>400</maxMaps>
  <maxReduces>200</maxReduces>
  <weight>1.0</weight>
  <minSharePreemptionTimeout>300</minSharePreemptionTimeout>
</pool>
</allocations>[/mw_shl_code]


这样用户在提交job执行时即可根据所在group从所属的pool获取mapreduce资源,那么hadoop是如何确定用户所属的group呢?
hadoop的core-defauft.xml配置中hadoop.security.group.mapping:

[mw_shl_code=xml,true]<property>
<name>hadoop.security.group.mapping</name>
<value>org.apache.hadoop.security.JniBasedUnixGroupsMappingWithFallback</value>
</property>[/mw_shl_code]


指明是通过JNI的方式获取用户所属的组,也可以指定value为org.apache.hadoop.security.ShellBasedUnixGroupsMapping通过shell命令id -Gn username的方式获取group.
然而现实中用户可能属于多个组,hadoop默认以返回值中的第一个组作为分配资源的依据,如果我们想指定用户group不是第一个怎么办了?
第一种解决方式是提供自己的id命令,将自己的id所在的PATH路径放在系统id命令PATH之前,让id -Gn username 返回的的第一个组为我们需要的特定组,这种方式相当于覆盖了系统id命令,可能影响系统中依赖id命令的部分。
第二种方式则是修改org.apache.hadoop.security.ShellBasedUnixGroupsMapping.java源码,在代码中对group进行过滤,这种方式需要每次cdh升级时替换hadoop-common.jar,hadoop cdh4.5采用maven管理,本人在编译过程中也遇到一些麻烦。
下载含有源码的cdh4.5 hadoop, 进入src,跳过可能出错的test,执行mvn install -Dmaven.test.skip=true即可进行所有项目的编译,cdh4.5 hadoop RPC依赖于protobuf2.4, 因此需要先安装protobuf2.4。本人在windows下通过Cygwin编译成功,然而替换掉测试环境中Linux 集群上的hadoop-common.jar后,出现了jobtracker无法启动、rpc异常错误,因此还必须在Linux平台上进行编译。
在Linux上通过源码安装protobuf2.4, 执行  make install 时 出现了错误:

            /usr/bin/ld: /usr/local/lib/libz.a(deflate.o): relocation R_X86_64_32S against `a local symbol' can not be used when making a shared object; recompile with -fPIC
              /usr/local/lib/libz.a: could not read symbols: Bad value
              collect2: ld returned 1 exit status
              libtool: install: error: relink `libprotoc.la' with the above command before installing it

在挣扎搜索了半天后通过重新安装执行./configure --enable-lib64  --libdir=/usr/lib64 解决了,因为编译系统是64位RedHat Linux。
这样通过以上方式就可以指定hadoop job所属用户组了。


没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条