分享

hadoop入门-第一章General:第一节单节点伪分布

pig2 2016-1-22 18:41:38 发表于 连载型 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 8 24351
问题导读

1.从本文部署实际部署,总结本地模式、伪分布、分布式的区别是什么?
2.单机是否是伪分布?
3.本地模式是否可以运行mapreduce?









hadoop2.7发布,这一版不太适合用于生产环境,但是并不影响学习:由于hadoop安装方式有三种,并且三种安装方式都可以在前面的基础上继续配置,分别是:

  • 本地模式
  • 伪分布
  • 分布式


###############################################
1.准备

安装jdk1.7参考
linux(ubuntu)安装Java jdk环境变量设置及小程序测试

测试:
Java -version


安装ssh

  1. sudo apt-get install ssh
复制代码
  1.   $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  2.   $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  3.   $ export HADOOP\_PREFIX=/usr/local/hadoop
复制代码

最后达到无密码登录

  1. ssh localhost
复制代码




安装rsync
  1. sudo apt-get install rsync
复制代码

修改网卡:
注释掉127.0.1.1 ubuntu
添加新的映射
10.0.0.81 ubuntu


这里必须修改,否则后面会遇到连接拒绝等问题

2.安装

进入配置文件目录

我这里是

~/hadoop-2.7.0/etc/hadoop




修改配置文件:
etc/hadoop/hadoop-env.sh

添加JAVA_HOME、HADOOP_COMMON_HOME
  1. export JAVA_HOME=/usr/jdk
  2. export HADOOP_COMMON_HOME=~/hadoop-2.7.0
复制代码

配置环境变量

sudo nano /etc/environment

增加hadoop配置
将下面添加到变量PATH中
  1. /home/aboutyun/hadoop-2.7.0/bin:/home/aboutyun/hadoop-2.7.0/sbin:
复制代码





########################################################
3.本地模式验证[可忽略]

所谓的本地模式:在运行程序的时候,比如wordcount是在本地磁盘运行的
上面已经配置完毕,我们对其测试,分别执行面命令:
注意: bin/hadoop的执行条件是在hadoop_home中,我这里是
  1.   $ mkdir input
复制代码
  1. $ cp etc/hadoop/*.xml input
复制代码

  1. $bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.0.jar grep input output 'dfs[a-z.]+'
复制代码



  1. $ cat output/*
复制代码



##################################################################
上面本地模式,我们知道就可以,我们下面继续配置伪分布模式
4.伪分布模式

我这里的全路径:/home/aboutyun/hadoop-2.7.0/etc/hadoop


修改文件etc/hadoop/core-site.xml
添加如下内容:
含义:接收Client连接的RPC端口,用于获取文件系统metadata信息。
  1. <configuration>
  2.   <property>
  3.         <name>fs.defaultFS</name>
  4.         <value>hdfs://localhost:9000</value>
  5.     </property>
  6. </configuration>
复制代码






修改etc/hadoop/hdfs-site.xml:
添加如下内容:
含义:备份只有一份
  1. <configuration>
  2.     <property>
  3.         <name>dfs.replication</name>
  4.         <value>1</value>
  5.     </property>
  6. </configuration>
复制代码



###################################
补充重要:
由于系统重启后,找不到namenode进程,这是因为系统在重启后被删除,所以加入下面配置
[mw_shl_code=xml,true]<property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/home/aboutyun123/dfs/name</value>
       </property>
      <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/home/aboutyun123/dfs/data</value>
       </property>
[/mw_shl_code]

同时,注意权限




###################################



5.伪分布模式

1.格式化namenode
  1. hdfs namenode -format
复制代码
有的地方使用
  1. bin/hdfs namenode -format
复制代码
如果配置的环境变量直接使用hdfs namenode -format即可

2.启动集群
  1. start-dfs.sh
复制代码



这时候单节点伪分布就已经安装成功了

#####################################################
验证[可忽略]
输入下面
  1. http://localhost:50070/
复制代码
如果是在虚拟机中安装,但是在宿主主机中访问,需要输入虚拟机ip地址
这里虚拟机ip地址是10.0.0.81



所以,我这里是
  1. http://10.0.0.81:50070/
复制代码





配置到这里也是可以的,我们同样可以运行wordcount,也就是我们的mapreduce不运行在yarn上。如果想让程序运行在yarn上,继续下面配置
#####################################################

6.配置Yarn

1.修改配置文件
修改配置文件mapred-site.xml
编辑文件etc/hadoop/mapred-site.xml,添加下面内容由于etc/hadoop中没有mapred-site.xml,所以对mapred-queues.xml.template复制一份
  1. cp mapred-site.xml.template mapred-site.xml
复制代码
然后编辑文件mapred-site.xml
添加
  1. <property>
  2.         <name>mapreduce.framework.name</name>
  3.         <value>yarn</value>
  4.     </property>
复制代码

最后形式:



修改配置文件yarn-site.xml

添加如下内容:
  1.   <property>
  2.         <name>yarn.nodemanager.aux-services</name>
  3.         <value>mapreduce_shuffle</value>
  4.     </property>
复制代码






2.启动yarn
  1. start-yarn.sh
复制代码



(由于我这里已经配置了环境变来那个,所以在哪个地方都可以运行start-yarn.sh)
如果你没有配置环境变量,则需要进入hadoop_home,执行下面命令

  1. sbin/start-yarn.sh
复制代码

3.验证
启动yarn之后,输入
  1. http://localhost:8088/
复制代码
即可看到下面界面




下一篇hadoop2.7 运行wordcount

遇到问题

问题1:
  1. Error: Could not find or load main class
  2. org.apache.hadoop.hdfs.server.namenode.NameNode
复制代码


解决办法:
在~/hadoop-2.7.0/etc/hadoop/hadoop-env.sh中添加
  1. export HADOOP_COMMON_HOME=~/hadoop-2.7.0
复制代码
重启生效

问题2:
格式化Java_home not found
  1. bin/hdfs namenode -format
复制代码
在/etc/environment 中添加
  1. export JAVA_HOME=/usr/jdk
复制代码


生效
  1. source /etc/environment
复制代码
重启[如还不行,重启]
  1. sudo init 6
复制代码



相关文章

hadoop入门-第一章General:第一节单节点伪分布

hadoop入门-第一章General:第二节集群配置

hadoop入门-第一章General:第三节Hadoop初级入门之命令指南

hadoop入门-第一章General:第四节文件系统shell

hadoop入门-第一章General:第五节hadoop的兼容性说明

hadoop入门-第一章General:第六节开发人员和用户接口指南:hadoop接口分类

hadoop入门-第一章General:第七节Hadoop 文件系统 API :概述

hadoop入门-第二章common:第一节hadoop 本地库 指南

hadoop入门-第二章common:第二节hadoop代理用户 -超级用户代理其它用户

hadoop入门-第二章common:第三节机架智能感知

hadoop入门-第二章common:第四节安全模式说明

hadoop入门-第二章common:第五节服务级别授权指南

hadoop入门-第二章common:第六节Hadoop HTTP web-consoles认证机制

hadoop入门-第二章common:第七节Hadoop Key管理服务器(KMS) - 文档集

hadoop入门:第三章HDFS文档概述(一)

hadoop入门:第三章HDFS文档概述(二)

hadoop入门:第四章mapreduce文档概述

hadoop入门:第五章MapReduce REST APIs文档概述

hadoop入门:第六章YARN文档概述

hadoop入门:第七章YARN REST APIs

hadoop入门:第八章hadoop兼容文件系统

hadoop入门:第九章hadoop认证

hadoop入门:第十章hadoop工具

hadoop入门:第十一章hadoop配置

已有(9)人评论

跳转到指定楼层
一天一个茶叶蛋 发表于 2016-1-24 10:22:17
这么好的入门文章怎么没人顶
回复

使用道具 举报

a530491093 发表于 2016-1-24 15:41:45
我 来顶了   感谢分析!
回复

使用道具 举报

钻石裂隙 发表于 2016-2-14 13:41:20
感谢分享,我有个问题不明白

安装 rsync 是为了什么 ?

点评

它是一款实现远程同步功能的软件  发表于 2016-2-14 13:43
回复

使用道具 举报

钻石裂隙 发表于 2016-2-14 14:05:53
可能我说的不太明白吧,
我想问:本例中使用rsync这条命令用在哪了?
rsync在hadoop集群中发挥什么样的作用
回复

使用道具 举报

gm100861 发表于 2016-2-26 21:42:12
绝对是精华,好文章,顶一个.
还有就是想问一下,hadoop 2里面和hadoop1里有好多不一样的地方.比如YARM,不知道这个是干什么用的.如果再能简单的介绍一下,就更完美了. 感谢楼主分享.
回复

使用道具 举报

露秋du 发表于 2016-11-29 21:11:43
想问下在yarn中的配置有的写得是
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
有的写的是
<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce.shuffle</value>
    </property>
想问两个有什么区别
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条