分享

Hadoop2.4.1分布式安装——参考(一)

本帖最后由 sunshine_junge 于 2014-8-7 17:02 编辑


问题导读:
1.Hadoop2.x各种配置文件和hadoop1会有何不同?
2.如何具体修改相应的配置文件?












1、Hadoop2.x的发行版中有个小问题:libhadoop.so.1.0.0在64位OS中存在问题,因为它是32位的,在64位OS中hadoop启动时会报一个WARN的日志。这个包的作用是调用native的api,可以提高hadoop的性能,如果这个包失效,那就是使用jvm做压缩等工作,效率就会很低。处理方法就是重新编译Hadoo。


2、在打算做namenode的机器上,wget或其他方式下载hadoop的压缩包,并解压到本地指定目录。


3、各种配置文件和hadoop1会有所不同,共有七个文件,以下分别描述。

  • /hadoop-2.4.1/etc/hadoop/hadoop-env.sh

  1. # The java implementation to use.
  2. export JAVA_HOME=${JAVA_HOME}
复制代码


  • /hadoop-2.4.1/etc/hadoop/yarn-env.sh

  1. # some Java parameters
  2. # export JAVA_HOME=/home/y/libexec/jdk1.6.0/
  3. if [ "$JAVA_HOME" != "" ]; then
  4.   #echo "run java in $JAVA_HOME"
  5.   JAVA_HOME=$JAVA_HOME
  6. fi
  7. if [ "$JAVA_HOME" = "" ]; then
  8.   echo "Error: JAVA_HOME is not set."
  9.   exit 1
  10. fi
  11. JAVA=$JAVA_HOME/bin/java
  12. JAVA_HEAP_MAX=-Xmx512m
  13. #默认的heap_max是1000m,我的虚拟机没这么大内存,所以改小了
复制代码


  • /hadoop-2.4.1/etc/hadoop/slaves

  1. #写入你slave的节点。如果是多个就每行一个,写入host名
  2. bd24
  3. bd25
复制代码


  • /hadoop-2.4.1/etc/hadoop/core-site.xml

  1. <configuration>
  2.   <property>
  3.     <name>fs.defaultFS</name>
  4.     <value>hdfs://bd23:9000</value>
  5.   </property>
  6.   <property>
  7.     <name>io.file.buffer.size</name>
  8.     <value>131072</value>
  9.   <property>
  10.   <property>
  11.     <name>hadoop.tmp.dir</name>
  12.     <value>file:/home/wukong/a_usr/hadoop-2.4.1/tmp</value>
  13.     <description>Abase for other temporary directories.</description>
  14.   </property>
  15.   <property>
  16.     <name>hadoop.proxyuser.hduser.hosts</name>
  17.     </value>*</value>
  18.   </property>
  19.   <property>
  20.     <name>hadoop.proxyuser.hduser.groups</name.
  21.     <value>*</value>
  22.   </property>
  23. </configuration>
复制代码


  • hdfs-site.xml

  1. <configuration>
  2.   <property>
  3.     <name>dfs.namenode.secondary.http-address</name>
  4.     <value>bd23:9001</value>
  5.   </property>
  6.   <property>
  7.     <name>dfs.namenode.name.dir</name>
  8.     <value>file:/home/wukong/a_usr/hadoop-2.4.1/name</value>
  9.   </property>
  10.   <property>
  11.     <name>dfs.datanode.data.dir</name>
  12.     <value>file:/home/wukong/a_usr/hadoop-2.4.1/data</value>
  13.   </property>
  14.   <property>
  15.     <name>dfs.replication</name>
  16.     <value>1</value>
  17.   </property>
  18.   <property>
  19.     <name>dfs.webhdfs.enabled</name>
  20.     <value>true</value>
  21.   </property>
  22. </configuration>
复制代码



  • mapred-site.xml

  1. <configuration>
  2.   <property>
  3.     <name>mapreduce.framework.name</name>
  4.     <value>yarn</value>
  5.   </property>
  6.   <property>
  7.     <name>mapreduce.jobhistory.address</name>
  8.     <value>bd23:10020</value>
  9.   </property>
  10.   <property>
  11.     <name>mapreduce.jobhistory.webapp.address</name>
  12.     <value>bd23.19888</value>
  13.   </property>
  14. </configuration>
复制代码



  • yarn-site.xml

  1. <configuration>
  2.   <property>
  3.     <name>yarn.nodemanager.aux-services</name>
  4.     <value>mapreduce_shuffle</value>
  5.   </property>
  6.   <property>
  7.     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  8.     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  9.   </property>
  10.   <property>
  11.     <name>yarn.resourcemanager.address</name>
  12.     <value>bd23:8032</value>
  13.   </property>
  14.   <property>
  15.     <name>yarn.resourcemanager.scheduler.address</name>
  16.     <value>bd23:8030</value>
  17.   </property>
  18.   <property>
  19.     <name>yarn.resourcemanager.resource-tracker.address</name>
  20.     <value>bd23:8031</value>
  21.   </property>
  22.   <property>
  23.     <name>yarn.resourcemanager.admin.address</name>
  24.     <value>bd23:8033</value>
  25.   </property>
  26.   <property>
  27.     <name>yarn.resourcemanager.webapp.address</name>
  28.     <value>bd23:8088</value>
  29.   </property>
  30. </configuration>
复制代码


4、将hadoop目录拷贝到所有主机。


5、格式化
       先将目录切换到hadoop2-4.1.
  1. ./bin/hdfs namenode -format
复制代码


      看到如下输出就证明成功了
  1. 14/07/31 13:58:30 INFO common.Storage: Storage directory /home/wukong/a_usr/hadoop-2.4.1/name has been successfully formatted.
复制代码


6、启动dfs
  1. ./sbin/start-dfs.sh
复制代码

      看到如下输出就证明成功了
  1. Starting namenodes on [bd23]
  2. bd23: starting namenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-namenode-bd23.out
  3. bd24: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd24.out
  4. bd25: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd25.out
  5. Starting secondary namenodes [bd23]
  6. bd23: starting secondarynamenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-secondarynamenode-bd23.out
复制代码


7、使用jps查看机器启动的进程情况。

      正常情况下master上应该有namenode和sencondarynamenode。slave上有datanode。







欢迎加入about云群90371779322273151432264021 ,云计算爱好者群,亦可关注about云腾讯认证空间||关注本站微信

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条