分享

hadoop2.4.1完全分布式安装——参考(二)


问题导读:
1.详细讲解hadoop2.4.1完全分布式安装的各个步骤?
2.需要修改哪些配置文件
扩展:
完全分布于为分布的区别是什么?



由于安装配置都是差不多的,更详细更全文档参考
hadoop2.2完全分布式最新高可靠安装文档


1、JDK安装和SSH互信(略过)
参考:

2、各节点IP和hostname如下(各节点需配置)

  1. [hadoop@master ~]$ cat /etc/hosts
复制代码

  1. 127.0.0.1       localhost
  2. 100.12.56.221   slave-1
  3. 100.12.56.222   slave-2
  4. 100.12.56.223   slave-3
  5. 100.12.56.224   slave-4
  6. 100.12.56.227   slave-5
  7. 100.12.56.228   master
复制代码


3、各节点操作使用hadoop用户进行,hadoop安装目录在/home/hadoop/hadoop-2.4.1下


4、JAVA环境变量配置如下


  1. [hadoop@master hadoop-2.4.1]$ cat /etc/profile(各节点需配置)
复制代码

  1. export JAVA_HOME=/usr/java/jdk1.7.0_51
  2. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  3. export PATH=.:$JAVA_HOME/bin:$PATH
  4. export PATH=/home/hadoop/hadoop-2.4.1/bin:/home/hadoop/hadoop-2.4.1/bin:$PATH
  5. #该环境变量的配置,让shell能够查找到hadoop的类路径
复制代码


5、master创建下这几个目录(这几个目录不知道是否必须创建,本例实验时创建了目录,实验成功)


  1. mkdir -p /home/hadoop/tmp
  2. mkdir -p /home/hadoop/dfs/name
  3. mkdir -p /home/hadoop/dfs/data
复制代码



6、编辑hadoop-env.sh(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/hadoop-env.sh
复制代码
  1. #添加如下内容
  2. export JAVA_HOME=/usr/java/jdk1.7.0_51
复制代码


7、编辑yarn-env.sh(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/yarn-env.sh
复制代码
  1. #添加如下内容
  2. export JAVA_HOME=/usr/java/jdk1.7.0_51
复制代码


8、编辑slaves(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/slaves
复制代码
  1. #添加如下内容
  2. slave-1
  3. slave-2
  4. slave-3
  5. slave-4
  6. slave-5
复制代码



9、编辑core-site.xml(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/core-site.xml
复制代码
  1. #添加如下内容
  2. <configuration>
  3.   <property>
  4.     <name>fs.defaultFS</name>
  5.     <value>hdfs://master:8020</value>
  6.   </property>
  7.   <property>
  8.     <name>io.file.buffer.size</name>
  9.     <value>131072</value>
  10.   </property>
  11.   <property>
  12.     <name>hadoop.tmp.dir</name>
  13.     <value>file:/home/hadoop/tmp</value>
  14.     <description>Abase for other temporary   directories.</description>
  15.   </property>
  16.   <property>
  17.     <name>hadoop.proxyuser.hadoop.hosts</name>
  18.     <value>*</value>
  19.   </property>
  20.   <property>
  21.     <name>hadoop.proxyuser.hadoop.groups</name>
  22.     <value>*</value>
  23.   </property>
  24. </configuration>
复制代码



10、编辑hdfs-site.xml(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/hdfs-site.xml
复制代码
  1. <configuration>
  2.   <property>
  3.     <name>dfs.namenode.secondary.http-address</name>
  4.     <value>master:9001</value>
  5.   </property>
  6.   <property>
  7.     <name>dfs.namenode.name.dir</name>
  8.     <value>file:/home/hadoop/dfs/name</value>
  9.   </property>
  10.   <property>
  11.     <name>dfs.datanode.data.dir</name>
  12.     <value>file:/home/hadoop/dfs/data</value>
  13.   </property>
  14.   <property>
  15.     <name>dfs.replication</name>
  16.     <value>3</value>
  17.   </property>
  18.   <property>
  19.     <name>dfs.webhdfs.enabled</name>
  20.     <value>true</value>
  21.   </property>
  22. </configuration>
复制代码



11、编辑mapred-site.xml(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/mapred-site.xml
复制代码
  1. <configuration>
  2.   <property>
  3.     <name>mapreduce.framework.name</name>
  4.     <value>yarn</value>
  5.   </property>
  6.   <property>
  7.     <name>mapreduce.jobhistory.address</name>
  8.     <value>master:10020</value>
  9.   </property>
  10.   <property>
  11.     <name>mapreduce.jobhistory.webapp.address</name>
  12.     <value>master:19888</value>
  13.   </property>
  14. </configuration>
复制代码



12、编辑yarn-site.xml(master节点)

  1. vi /home/hadoop/hadoop-2.4.1/etc/hadoop/yarn-site.xml
复制代码
  1. <configuration>
  2.   <property>
  3.     <name>yarn.nodemanager.aux-services</name>
  4.     <value>mapreduce_shuffle</value>
  5.   </property>
  6.   <property>
  7.     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
  8.     <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  9.   </property>
  10.   <property>
  11.     <name>yarn.resourcemanager.address</name>
  12.     <value>master:8032</value>
  13.   </property>
  14.   <property>
  15.     <name>yarn.resourcemanager.scheduler.address</name>
  16.     <value>master:8030</value>
  17.   </property>
  18.   <property>
  19.     <name>yarn.resourcemanager.resource-tracker.address</name>
  20.     <value>master:8031</value>
  21.   </property>
  22.   <property>
  23.     <name>yarn.resourcemanager.admin.address</name>
  24.     <value>master:8033</value>
  25.   </property>
  26.   <property>
  27.     <name>yarn.resourcemanager.webapp.address</name>
  28.     <value>master:8088</value>
  29.   </property>
  30. </configuration>
复制代码


13、拷贝软件到其他节点(master节点)


  1. scp -r /home/hadoop/hadoop-2.4.1 slave-1:/home/hadoop/
  2. scp -r /home/hadoop/hadoop-2.4.1 slave-2:/home/hadoop/
  3. scp -r /home/hadoop/hadoop-2.4.1 slave-3:/home/hadoop/
  4. scp -r /home/hadoop/hadoop-2.4.1 slave-4:/home/hadoop/
  5. scp -r /home/hadoop/hadoop-2.4.1 slave-5:/home/hadoop/
复制代码


14、格式化hdfs文件系统(master节点)


  1. hdfs namenode –format
复制代码



15、启动yarn

  1. /home/hadoop/hadoop-2.4.1/sbin/start-yarn.sh(master节点)
复制代码


16、jps

master节点:
  1. [hadoop@master sbin]$ jps
复制代码
  1. 8783 NameNode
  2. 8981 SecondaryNameNode
  3. 9759 Jps
  4. 9132 ResourceManager
复制代码


slave节点:

  1. [hadoop@slave-5 ~]$ jps
复制代码
  1. 6911 DataNode
  2. 7035 NodeManager
  3. 7281 Jps
复制代码



17、网页上访问

http://master:8088/




欢迎加入about云群90371779322273151432264021 ,云计算爱好者群,亦可关注about云腾讯认证空间||关注本站微信

已有(1)人评论

跳转到指定楼层
linhai1023 发表于 2014-9-10 17:26:04
膜拜了,楼主加油啊,继续 出好的文章!
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条