搜索
搜 索
本版
文章
帖子
用户
图文精华
hadoop-2.6.0+zookeeper-3.4.6+hbase-1.0.0+hive-1.1.0完全分布 ...
首页
Portal
专题
BBS
面试
更多
登录
注册
用户组:游客
主题
帖子
云币
我的帖子
我的收藏
我的好友
我的勋章
设置
退出
导读
淘贴
博客
群组
社区VIP
APP下载
今日排行
本周排行
本周热帖
本月排行
本月热帖
会员排行
About云-梭伦科技
»
专题
›
交流区
›
技术交流
›
HDFS
›
解决从本地文件系统上传到HDFS时的权限问题
0
0
0
分享
解决从本地文件系统上传到HDFS时的权限问题
hapjin
发表于 2015-10-9 11:14:02
[显示全部楼层]
阅读模式
关闭右栏
0
13313
本帖最后由 hapjin 于 2015-10-9 11:16 编辑
当使用 hadoop fs -put localfile /user/xxx 时提示:
put: Permission denied: user=root, access=WRITE, inode="/user/shijin":hdfs:supergroup:drwxr-xr-x
表明:权限不够。这里涉及到两个方面的权限。一个是本地文件系统中localfile 文件的权限,一个是HDFS上 /user/xxx目录的权限。
先看看 /user/xxx目录的权限:drwxr-xr-x - hdfs supergroup 表示它属于hdfs用户,组名为 supergroup
因此需要使用
sudo -u hdfs
hadoop fs -put localfile /user/xxx 来指定使用 hdfs 用户来执行上传命令。
参考
当高兴地执行
sudo -u hdfs
hadoop fs -put localfile /user/xxx 以为能成功上传时,又报错:
put: localfile No such file or directory 说找不到本地文件localfile,可是用 ls 明明 能看到 localfile ,后来在一篇文章(
参考
)中发现发来是lcoalfile的权限问题。
因为我现在是使用hdfs用户来执行命令。而hdfs用户对 localfile 是没有相关权限的。此时,问题基本解决了,就是让hdfs 用户对 lcoalfile 有相关权限,(注意目录权限该该目录下文件权限的影响,参考:
linux下文件与目录权限关系
)
一种简单的解决方法。直接把需要上传的文件复制到/tmp目录下。因为/tmp目录的权限为 rwxrwxrwx。然后执行:
sudo -u hdfs
hadoop fs -put localfile /user/xxx 上传成功。
但是还是没明白HDFS中的权限管理问题啊啊啊啊。。。。
原文:
http://www.cnblogs.com/hapjin/p/4846853.html
转载请注明出处。
回复
使用道具
举报
提升卡
置顶卡
沉默卡
喧嚣卡
变色卡
千斤顶
显身卡
没找到任何评论,期待你打破沉寂
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
发表新帖
hapjin
实习版主
关注
21
主题
91
帖子
1
粉丝
TA的主题
请问有人用过Oozie的JMS通知功能吗?
2016-5-17
Oozie 中Suspend状态的作业可以通过resume来恢复执行
2016-5-16
oozie coordinator 作业如何配置???
2016-3-17
关于Oozie Server的一个奇怪的问题--当出现大量作业提交时……
2015-12-6
使用Oozie提交多个MapReduce作业时,如何将各种MapReduce的输出连接起来?
2015-11-13
24小时热文
Spark机器学习
Spark机器学习算法、源码及实战详解
《深度实践Spark机器学习(吴茂贵)》高清
《Spark机器学习第2版》高清中文PDF
像高手一样发言:七种常见工作场景的说话之
关闭
推荐
/2
中文版ChatGPT
1.无需魔法 2.提高编程效率 3.提高文档能力
查看 »
新手帮助
新手帮助:注册遇到问题,领取资源,加入铁粉群,不会使用搜索,如何获取积分等
查看 »
意见
反馈