分享

kerberos认证的hadoopdatanode起不来

ckaiwj1314 发表于 2014-12-18 15:07:15 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 7 50456
cdh5.2.0的rpm安装的集群,使用kerberos认证,格式化namenode后正常起来了,但是启动datanode的时候报错.
************************************************************/
2014-12-18 12:45:47,069 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: registered UNIX signal handlers for [TERM, HUP, INT]
2014-12-18 12:45:47,418 WARN org.apache.hadoop.hdfs.server.common.Util: Path /hadoopdata/hadoop/data should be specified as a URI in configuration files. Please update hdfs configuration.
2014-12-18 12:45:48,565 INFO org.apache.hadoop.security.UserGroupInformation: Login successful for user hdfs/hadoop6@EXAMPLE.COM using keytab file /etc/hadoop/conf/hdfs.keytab
2014-12-18 12:45:48,869 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties
2014-12-18 12:45:49,028 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).
2014-12-18 12:45:49,028 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: DataNode metrics system started
2014-12-18 12:45:49,035 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: File descriptor passing is enabled.
2014-12-18 12:45:49,038 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Configured hostname is hadoop6
2014-12-18 12:45:49,039 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Exception in secureMain
java.lang.RuntimeException: Cannot start secure DataNode without configuring either privileged resources or SASL RPC data transfer protection and SSL for HTTP.  Using privileged resources in combination with SASL RPC data transfer protection is not supported.
        at org.apache.hadoop.hdfs.server.datanode.DataNode.checkSecureConfig(DataNode.java:926)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:825)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:382)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:2055)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1942)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1989)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.secureMain(DataNode.java:2165)
        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:2189)
2014-12-18 12:45:49,046 INFO org.apache.hadoop.util.ExitUtil: Exiting with status 1
2014-12-18 12:45:49,054 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down DataNode at hadoop6/10.80.14.26
************************************************************/

谁能帮忙看下 ,谢谢

已有(7)人评论

跳转到指定楼层
ckaiwj1314 发表于 2014-12-18 15:55:22
自己顶,好像是和特权资源有关,但是不太懂,求教了.
回复

使用道具 举报

gefieder 发表于 2014-12-18 16:44:37
这里有关于hadoop的配置,可以参考,二者的配置应该是一样的。

配置如下:
  1. <!-- General HDFS security config -->
  2. <property>
  3.   <name>dfs.block.access.token.enable</name>
  4.   <value>true</value>
  5. </property>
  6. <!-- NameNode security config -->
  7. <property>
  8.   <name>dfs.https.address</name>
  9.   <value><fully qualified domain name of NN>:50470</value>
  10. </property>
  11. <property>
  12.   <name>dfs.https.port</name>
  13.   <value>50470</value>
  14. </property>
  15. <property>
  16.   <name>dfs.namenode.keytab.file</name>
  17.   <value>/usr/local/hadoop/conf/hdfs.keytab</value> <!-- path to the HDFS keytab -->
  18. </property>
  19. <property>
  20.   <name>dfs.namenode.kerberos.principal</name>
  21.   <value>hdfs/_HOST@YOUR-REALM.COM</value>
  22. </property>
  23. <property>
  24.   <name>dfs.namenode.kerberos.https.principal</name>
  25.   <value>host/_HOST@YOUR-REALM.COM</value>
  26. </property>
  27. <!-- Secondary NameNode security config -->
  28. <property>
  29.   <name>dfs.secondary.https.address</name>
  30.   <value><fully qualified domain name of 2NN>:50495</value>
  31. </property>
  32. <property>
  33.   <name>dfs.secondary.https.port</name>
  34.   <value>50495</value>
  35. </property>
  36. <property>
  37.   <name>dfs.secondary.namenode.keytab.file</name>
  38.   <value>/usr/local/hadoop/conf/hdfs.keytab</value> <!-- path to the HDFS keytab -->
  39. </property>
  40. <property>
  41.   <name>dfs.secondary.namenode.kerberos.principal</name>
  42.   <value>hdfs/_HOST@YOUR-REALM.COM</value>
  43. </property>
  44. <property>
  45.   <name>dfs.secondary.namenode.kerberos.https.principal</name>
  46.   <value>host/_HOST@YOUR-REALM.COM</value>
  47. </property>
  48. <!-- DataNode security config -->
  49. <property>
  50.   <name>dfs.datanode.data.dir.perm</name>
  51.   <value>700</value>
  52. </property>
  53. <property>
  54.   <name>dfs.datanode.address</name>
  55.   <value>0.0.0.0:1004</value>
  56. </property>
  57. <property>
  58.   <name>dfs.datanode.http.address</name>
  59.   <value>0.0.0.0:1006</value>
  60. </property>
  61. <property>
  62.   <name>dfs.datanode.keytab.file</name>
  63.   <value>/usr/local/hadoop/conf/hdfs.keytab</value> <!-- path to the HDFS keytab -->
  64. </property>
  65. <property>
  66.   <name>dfs.datanode.kerberos.principal</name>
  67.   <value>hdfs/_HOST@YOUR-REALM.COM</value>
  68. </property>
  69. <property>
  70.   <name>dfs.datanode.kerberos.https.principal</name>
  71.   <value>host/_HOST@YOUR-REALM.COM</value>
  72. </property>
复制代码



来源:
hadoop 添加kerberos认证



更多参考:


了解Hadoop Kerberos安全机制


kerberos的系列文章整理


为hdfs配置kerberos






回复

使用道具 举报

hahaxixi 发表于 2014-12-19 09:29:34
最近也在看这个,学习下
回复

使用道具 举报

jeo 发表于 2015-1-4 14:29:29
您好,我也遇到了这个问题,请问是怎么解决的
回复

使用道具 举报

xbings 发表于 2015-4-24 16:53:59
大哥,我的也有这个问题,我还没有集成HA模式,请问你这个问题是怎么解决了的?能否分享下??
回复

使用道具 举报

kanwei163 发表于 2015-6-19 18:04:06
兄弟,怎么解决的?
回复

使用道具 举报

wuhu2003 发表于 2017-12-7 21:13:32
寻求答案,学习一下
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条