搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
办公|编程助手
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
技术学习(版主发帖区)
›
大数据学习
›
Hive|数据仓库
›
安装配置
›
hive3系列2:安装部署
0
1
0
分享
hive3系列2:安装部署
nettman
2019-5-23 13:29:18
发表于
安装配置
[显示全部楼层]
只看大图
阅读模式
关闭右栏
1
5589
问题导读
1.hive3基于hadoop哪个版本?
2.安装有哪些步骤?
3.Hive有哪些配置文件?
前言
前面已经讲过hadoop3.1的安装教程,本次主要基于hadoop3.1安装3.1
hadoop安装参考
大数据基础Hadoop3.1.1的高可用HA安装及遇到问题总结
http://www.aboutyun.com/forum.php?mod=viewthread&tid=26880
安装hive
第一步
下载hive3.1
http://mirrors.hust.edu.cn/apache/hive/
解压
tar -zxvf apache-hive-3.1.0-bin.tar.gz
重命名
mv apache-hive-3.1.0-bin/ hive-3.1.0/
添加hive环境
source /etc/profile
第二步
进入conf目录添加一个hive-site.xml配置文件,copy模板就好了
cp hive-default.xml.template hive-site.xml
修改hive-site.xml配置
vi hive-site.xml
其他的property都删了,只保留下面几个property配置就好了
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.110.253:3306/hive</value>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
<name>hive.metastore.schema.verification</name>
<value>false</value>
</property>
<property>
<name>datanucleus.schema.autoCreateAll</name>
<value>true</value>
</property>
在hive目录下创建iotmp目录
将hive-site.xml这种所有{system:java.io.tmpdir}替换成/root/hive-3.1.0/iotmp
第三步
添加hive-env.sh文件,copy模板即可
cp hive-env.sh.template hive-env.sh
vi hive-evn.sh修改HADOOP_HOME、HIVE_CONF_DIR、HIVE_AUX_JARS_PATH
配置日志,复制一个模板
cp hive-log4j2.properties.template hive-log4j2.properties
vi hive-log4j2.properties
配置property.hive.log.dir
property.hive.log.dir = /root/hive-3.1.0/logs(注意:logs需要自己创建,在hive目录下mkdir logs)
第四步
添加mysql的驱动包到hive/lib下
cp mysql-connector-java-5.1.36.jar /root/hive-3.1.0/lib/
第五步
在mysql新增hive数据库,客户端工具用的Navicat,我的mysql安装在物理机,然后虚拟机配置连接物理机就好
第六步
创建hive仓库目录
hadoop dfs -mkdir -p /user/hive/warehouse
hadoop dfs -chmod g+w /user/hive/warehouse
创建后可以再hdfs管理看到
第七步
始化数据库
schematool -dbType mysql -initSchema
执行完后出现下面打印即初始化完成
看看mysql hive数据库,这个时候可以看到创建了一堆新表,这些即是管理元数据的表,
第八步
启动hive,show databases;出现数据,安装成功
至此,hive安装成功
---------------------
关注公众号,获取更多资源:
领取100本书+1T资源
http://www.aboutyun.com/forum.php?mod=viewthread&tid=26480
大数据5个项目视频
http://www.aboutyun.com/forum.php?mod=viewthread&tid=25235
作者:aguang_vip
来源:CSDN
原文:
https://blog.csdn.net/aguang_vip/article/details/81583661
版权声明:本文为博主原创文章,转载请附上博文链接!
加微信w3aboutyun,可拉入技术爱好者群
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
已有(1)人评论
电梯直达
正序浏览
YTP520YTP
发表于 2019-5-27 10:29:35
66666666666666666666
回复
使用道具
举报
显身卡
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
nettman
超级版主
关注
2910
主题
3203
帖子
478
粉丝
TA的主题
避坑大厂基础架构
4 天前
Flink CDC:新一代实时数据集成框架
4 天前
蚂蚁面试就是不一样
4 天前
招聘1万人
2024-11-21
为何大厂开发者纷纷抛弃小仓,转向大仓monorepo?
2024-11-21
24小时热文
kafka面试题精选
Nebula Flink Connector 在实时 ETL 的实践
Apache Doris 用户案例集
国家电网公司主数据管理系统技术规范
企业的主数据建设方法论与实践
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈