分享

mapreduce hbase实现云存储

啊耀 发表于 2016-1-21 16:01:20 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 3 7594
用mapreduce分析一个1G的文件,把分析结果插入hbase中,只插入一条数据到hbase(就是说把这个1G文件当一个value,插入hbase)
这样实现合理吗?
如果把这个文件分成多条记录插入hbase,那么我想要hbase下载这个文件有怎么实现呢?
其实我就是想实现上传文件和下载文件,把hbase当成一个云存储。
求各位大哥大姐,给给思路,教教我,谢谢!!!

已有(3)人评论

跳转到指定楼层
wscl1213 发表于 2016-1-21 17:45:52
。。。
没必要这么麻烦,而且没有必要放到hbase中。直接上传到hdfs中即可。
hdfs的put是上传,get是下载。很简单的。

楼主把下面内容看完,就会这个问题了
hadoop实战:Java对hdfs的编程
http://www.aboutyun.com/thread-6500-1-1.html


Hadoop web编程--REST API    WebHDFS
http://www.aboutyun.com/thread-8823-1-1.html


Hadoop培训笔记之HDFS编程
http://www.aboutyun.com/thread-6894-1-1.html


hadoop编程,如何使用api获取hdfs整体信息
http://www.aboutyun.com/thread-6490-1-1.html



回复

使用道具 举报

wscl1213 发表于 2016-1-21 17:50:22
hbase也可以实现,但是没有必要。
插入一个,然后下载就是读取
Spark读取Hbase中的数据
http://www.aboutyun.com/thread-8516-1-1.html



回复

使用道具 举报

wscl1213 发表于 2016-1-21 17:50:58
想做网站下面可以参考
hadoop网盘小项目介绍及相关代码下载1
http://www.aboutyun.com/thread-10422-1-1.html



回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条