harley 发表于 2016-1-28 10:54:26

【求救】执行Shell Script报错Permission denied: user=admin, access=EXECUTE

在HUE上执行以下Shell Script, 前半部分(建表的部分)可以執行成功, 后半部分insert部分無法執行成功,一直報下面的錯誤:
Diagnostics: Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------但是在Linux環境或Hive環境執行時都可成功執行。

各位高手幫忙看看,是什么原因造成?
附Shell Script內容如下:               
set -xtable="drop table if exists it.temp_r_wip_1;create table it.temp_r_wip_1 (wip_idstring,wip_nostring, wo_nostring, sku_nostring, cust_part_nostring,route_historystring, input_timestring,finish_timestring, finish_flagstring,   modelstring,production_floor   string,del_flag string,factory_code string);"sql="      set hive.exec.compress.intermediate=true;      set hive.exec.compress.output=true;                insert overwrite tableit.temp_r_wip_1      select *      fromit.temp_r_wip      where factory_code='ZZ'               limit 100 ;"echo -e "\n--> $table<--\n"hive -e "$table"echo -e "\n--> $sql<--\n"hive -e "$sql"
附错误信息如下:


User:                                  admin               
                  Name:                                  insert overwrite tableit.temp_r_wip_...100(Stage-1)               
                  Application Type:                                  MAPREDUCE               
                  Application Tags:                                                 

                  YarnApplicationState:                                  FAILED               
                  Queue:                                  default               
                  FinalStatus Reported by AM:                                  FAILED               
                  Started:                                  Thu Jan 28 10:44:26 +0800 2016               
                  Elapsed:                                  2sec               
                  Tracking URL:                                  History               
                  Log Aggregation Status                                  SUCCEEDED               
                  Diagnostics:                                                    Application application_1453943662413_0018 failed 2 times due to AM Container for appattempt_1453943662413_0018_000002 exited withexitCode: -1000                  
                                    For more detailed output, check application tracking page:http://bigdata02:8088/cluster/app/application_1453943662413_0018Then, click on links to logs of each attempt.                  
                                    Diagnostics: Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1771)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3866)                  
                                              at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1076)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)                  
                                              at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)                  
                                              at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2151)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2147)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2145)                  
                  
                                    org.apache.hadoop.security.AccessControlException: Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1771)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3866)                  
                                              at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1076)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)                  
                                              at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)                  
                                              at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2151)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2147)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2145)                  
                  
                                              at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)                  
                                              at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)                  
                                              at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)                  
                                              at java.lang.reflect.Constructor.newInstance(Constructor.java:422)                  
                                              at org.apache.hadoop.ipc.RemoteException.instantiateException(RemoteException.java:106)                  
                                              at org.apache.hadoop.ipc.RemoteException.unwrapRemoteException(RemoteException.java:73)                  
                                              at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:2118)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1315)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1311)                  
                                              at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1311)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.copy(FSDownload.java:253)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.access$000(FSDownload.java:63)                  
                                              at org.apache.hadoop.yarn.util.FSDownload$2.run(FSDownload.java:361)                  
                                              at org.apache.hadoop.yarn.util.FSDownload$2.run(FSDownload.java:359)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.call(FSDownload.java:358)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.call(FSDownload.java:62)                  
                                              at java.util.concurrent.FutureTask.run(FutureTask.java:266)                  
                                              at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)                  
                                              at java.util.concurrent.FutureTask.run(FutureTask.java:266)                  
                                              at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)                  
                                              at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)                  
                                              at java.lang.Thread.run(Thread.java:745)                  
                                    Caused by: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1771)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3866)                  
                                              at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1076)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)                  
                                              at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)                  
                                              at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2151)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2147)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2145)                  
                  
                                              at org.apache.hadoop.ipc.Client.call(Client.java:1427)                  
                                              at org.apache.hadoop.ipc.Client.call(Client.java:1358)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)                  
                                              at com.sun.proxy.$Proxy80.getFileInfo(Unknown Source)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:771)                  
                                              at sun.reflect.GeneratedMethodAccessor71.invoke(Unknown Source)                  
                                              at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)                  
                                              at java.lang.reflect.Method.invoke(Method.java:497)                  
                                              at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:252)                  
                                              at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:104)                  
                                              at com.sun.proxy.$Proxy81.getFileInfo(Unknown Source)                  
                                              at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:2116)                  
                                              ... 19 more                  
                                    Caused by: Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1771)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3866)                  
                                              at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1076)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)                  
                                              at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)                  
                                              at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2151)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2147)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2145)                  
                  
                                    org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453943662413_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1771)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)                  
                                              at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3866)                  
                                              at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1076)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.getFileInfo(ClientNamenodeProtocolServerSideTranslatorPB.java:843)                  
                                              at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:616)                  
                                              at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:969)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2151)                  
                                              at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2147)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2145)                  
                  
                                              at org.apache.hadoop.ipc.Client.call(Client.java:1427)                  
                                              at org.apache.hadoop.ipc.Client.call(Client.java:1358)                  
                                              at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:229)                  
                                              at com.sun.proxy.$Proxy80.getFileInfo(Unknown Source)                  
                                              at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.getFileInfo(ClientNamenodeProtocolTranslatorPB.java:771)                  
                                              at sun.reflect.GeneratedMethodAccessor71.invoke(Unknown Source)                  
                                              at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)                  
                                              at java.lang.reflect.Method.invoke(Method.java:497)                  
                                              at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:252)                  
                                              at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:104)                  
                                              at com.sun.proxy.$Proxy81.getFileInfo(Unknown Source)                  
                                              at org.apache.hadoop.hdfs.DFSClient.getFileInfo(DFSClient.java:2116)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1315)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem$22.doCall(DistributedFileSystem.java:1311)                  
                                              at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)                  
                                              at org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1311)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.copy(FSDownload.java:253)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.access$000(FSDownload.java:63)                  
                                              at org.apache.hadoop.yarn.util.FSDownload$2.run(FSDownload.java:361)                  
                                              at org.apache.hadoop.yarn.util.FSDownload$2.run(FSDownload.java:359)                  
                                              at java.security.AccessController.doPrivileged(Native Method)                  
                                              at javax.security.auth.Subject.doAs(Subject.java:422)                  
                                              at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.call(FSDownload.java:358)                  
                                              at org.apache.hadoop.yarn.util.FSDownload.call(FSDownload.java:62)                  
                                              at java.util.concurrent.FutureTask.run(FutureTask.java:266)                  
                                              at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:511)                  
                                              at java.util.concurrent.FutureTask.run(FutureTask.java:266)                  
                                              at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142)                  
                                              at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617)                  
                                              at java.lang.Thread.run(Thread.java:745)                  
                  
                                    Failing this attempt. Failing the application.                  



wscl1213 发表于 2016-1-28 20:44:56

/user/yarn,这个权限有限制,
hadoop fs -chmod 777 /user/yarn

harley 发表于 2016-1-29 08:15:02

@wscl1213   沒用啊,/user/yarn加过好多次了,都不行,因为这个目录下的.staging是每次运行时yarn临时产生的文件夹,还是没权限
Diagnostics: Permission denied: user=admin, access=EXECUTE, inode="/user/yarn/.staging/job_1453971821543_0018/libjars/hive-hcatalog-core.jar":yarn:hdfs:drwx------

harley 发表于 2016-1-29 09:48:12

更改配置dfs.permissions.enabled=false还是报错:

Failing Oozie Launcher, Main class , main() threw exception, Cannot run program "Test_01.sh" (in directory "/hadoop/yarn/local/usercache/admin/appcache/application_1454030820169_0002/container_e10_1454030820169_0002_01_000002"): error=13, Permission denied
java.io.IOException: Cannot run program "Test_01.sh" (in directory "/hadoop/yarn/local/usercache/admin/appcache/application_1454030820169_0002/container_e10_1454030820169_0002_01_000002"): error=13, Permission denied
        at java.lang.ProcessBuilder.start(ProcessBuilder.java:1048)
        at org.apache.oozie.action.hadoop.ShellMain.execute(ShellMain.java:95)
        at org.apache.oozie.action.hadoop.ShellMain.run(ShellMain.java:57)
        at org.apache.oozie.action.hadoop.LauncherMain.run(LauncherMain.java:47)
        at org.apache.oozie.action.hadoop.ShellMain.main(ShellMain.java:49)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:497)
        at org.apache.oozie.action.hadoop.LauncherMapper.map(LauncherMapper.java:241)
        at org.apache.hadoop.mapred.MapRunner.run(MapRunner.java:54)
        at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:453)
        at org.apache.hadoop.mapred.MapTask.run(MapTask.java:343)
        at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:168)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:422)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
        at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:162)
Caused by: java.io.IOException: error=13, Permission denied
        at java.lang.UNIXProcess.forkAndExec(Native Method)
        at java.lang.UNIXProcess.<init>(UNIXProcess.java:248)
        at java.lang.ProcessImpl.start(ProcessImpl.java:134)
        at java.lang.ProcessBuilder.start(ProcessBuilder.java:1029)

easthome001 发表于 2016-1-29 10:28:56

harley 发表于 2016-1-29 09:48
更改配置dfs.permissions.enabled=false还是报错:

Failing Oozie Launcher, Main class

多上图,贴配置,主观看法,谁都无法判断的

easthome001 发表于 2016-1-29 10:29:51

harley 发表于 2016-1-29 09:48
更改配置dfs.permissions.enabled=false还是报错:

Failing Oozie Launcher, Main class
是这里面配置的吗?
在conf/hdfs-site.xml中加入
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
这个很多人都遇到的,很可能是楼主配置错误了


harley 发表于 2016-1-29 10:59:24

    <property>
      <name>dfs.permissions.enabled</name>
      <value>false</value>
    </property>
页: [1]
查看完整版本: 【求救】执行Shell Script报错Permission denied: user=admin, access=EXECUTE