搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
办公|编程助手
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
技术学习(版主发帖区)
›
大数据学习
›
Hadoop|YARN
›
安装配置
›
Hadoop Windows下伪分布式的安装
0
0
0
分享
Hadoop Windows下伪分布式的安装
nettman
2013-11-28 15:01:20
发表于
安装配置
[显示全部楼层]
阅读模式
关闭右栏
0
7727
About云VIP帮助找工作和提升
安装Cygwin:
1.Devel:openssl-devel;
2.Editors:vim;
3.Net:openssh;
4.其他默认。
Hadoop Windows下伪分布式的安装 笔记
安装SSHD
1.ssh-host-config
2.yes
3.yes
4.yes
5.
启动SSHD
net start sshd
Hadoop Windows下伪分布式的安装 笔记
安装ssh
1.ssh-keygen
2.
3.
4.
5.cat id_rsa.pub >> authorized_keys
6.ssh localhost
7.ssh localhost
8.jps
Hadoop Windows下伪分布式的安装 笔记
安装Hadoop
1.tar zxvf hadoop-1.0.1.tar.gz
2.配置hadoop-env.sh
(1).vi hadoop-env.sh
(2).a
(3).加入export JAVA_HOME=/cygdrive/c/JDK
(4).Esc
(5).:wq
(6).sh hadoop-env.sh
3.配置conf/core-site.xml
(1).vi core-site.xml
(2).a
(3).加入fs.default.namehdfs://localhost:9000
(4).Esc
(5).:wq
4.配置conf/hdfs-site.xml
(1).vi hdfs-site.xml
(2).a
(3).加入dfs.replication1
(4).Esc
(5).:wq
5.配置conf/mapred-site.xml
(1).vi mapred-site.xml
(2).a
(3).加入mapred.job.trackerlocalhost:9001
(4).Esc
(5).:wq
Hadoop Windows下伪分布式的安装 笔记
1.格式化文件系统,hadoop namenode -format
2.启动hadoop
(1).启动关闭所有任务,start-all.sh/stop-all.sh
(2).启动关闭HDFS,start-dfs.sh/stop-dfs.sh
(3).启动关闭MapReduce,start-mapred.sh/stop-mapred.sh
3.用jps命令查看进程,确保有NameNode、DataNode、JobTracker、TaskTracker
Hadoop Shell 笔记
bin
1. hadoop,是shell脚本
2. hadoop-config.sh,给hadoop的一些变量赋值
3. hadoop-daemon.sh,hadoop的单节点启动
4. hadoop-daemons.sh,会调用slaves.sh去,启动或停止所有slave节点的某个服务
5. start-all.sh,启动所有节点的所有服务
6. start-balancer.sh,负载均衡,启动后不知道什么时候运行完,很慢且占带宽,可以在配置文件里配置所占带宽,因为是来回拷数据,所以对集群的压力比较大,一般都是在没有任务的时候执行它
7. start-dfs.sh,启动所有节点的dfs
8. start-jobhistoryserver.sh,用来跟踪job,主要包括运行多久、产生多少数据文件等
9. start-mapred.sh,启动所有节点的MapReduce
10. stop-all.sh,停止所有节点的所有服务
11. stop-balancer.sh,停止负载均衡
12. stop-dfs.sh,停止所有节点的dfs
13. stop-jobhistoryserver.sh,停止跟踪job
14. stop-mapred.sh,停止所有节点的MapReduce
shell
1. namenode -format,格式化dfs文件系统
2. secondarynamenode,运行一个dfs备用的namenode节点
3. namenode,运行一个dfs的namenode节点
4. datanode,运行一个dfs的datanode节点
5. dfsadmin,运行一个dfs的管理员客户端
6. mradmin,运行一个MapReduce的管理员客户端
7. fsck,运行一个dfs文件系统的检查工具
8. fs,运行一个普通文件系统的用户客户端
9. balancer,运行一个负载均衡工具
10. fetchdt,从namenode节点中获取标识token
11. jobtracker,运行一个MapReduce的jobtracker节点
12. pipes,运行一个管道作业,基于C++的
13. tasktracker,运行一个MapReduce的tasktracker节点
14. historyserver,运行一个独立的守护进程——工作历史服务器
15. job,操作MapReduce中的作业
16. queue,获取有关作业队列的信息
17. version,打印版本信息
18. jar ,运行一个jar文件
19. distcp ,递归地复制文件或目录
20. archive -archiveName NAME -p * ,创建一个hadoop归档文件,即打包hadoop文件
21. classpath,打印需要得到Hadoop jar和所需类库的classpath
22. daemonlog,获得或设置每个守护进程的日志级别
23. CLASSNAME,运行指定的类名称
加微信w3aboutyun,可拉入技术爱好者群
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
没找到任何评论,期待你打破沉寂
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
nettman
超级版主
关注
2910
主题
3203
帖子
478
粉丝
TA的主题
避坑大厂基础架构
昨天 21:48
Flink CDC:新一代实时数据集成框架
昨天 20:38
蚂蚁面试就是不一样
昨天 20:29
招聘1万人
6 天前
为何大厂开发者纷纷抛弃小仓,转向大仓monorepo?
6 天前
24小时热文
Flink CDC:新一代实时数据集成框架
蚂蚁面试就是不一样
如何高效学习
人情世故速查速用大全集
框架思维
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈