spark1.4+hbase0.96+hadoop2.6,spark-submit在standalone模式下报错

查看数: 19296 | 评论数: 7 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2015-9-21 11:42

正文摘要:

集群版本:spark1.4+hbase0.96+hadoop2.6,分为spark集群和hadoop集群, 在standalone模式下提交spark-submit报错, 错误: Caused by: java.lang.reflect.InvocationTargetException org.apache. ...

回复

轩辕依梦Q 发表于 2015-9-24 10:00:34
tntzbzc 发表于 2015-9-21 23:18
提交是自带的,还是自己写的程序,可能是程序的问题

是jar配置的问题,改成jar全名
轩辕依梦Q 发表于 2015-9-24 09:59:56
bioger_hit 发表于 2015-9-22 10:01
楼主问题解决了吗

指定hbase  jar时,不能用*通配符,改成具体的jar名称。
bioger_hit 发表于 2015-9-22 10:01:25
楼主问题解决了吗
tntzbzc 发表于 2015-9-21 23:18:16
提交是自带的,还是自己写的程序,可能是程序的问题
s060403072 发表于 2015-9-21 16:43:24
轩辕依梦Q 发表于 2015-9-21 14:43
网上有帖子说nutch和hbase结合使用时有这样报错,但这个和nutch无关啊

楼主能否找到在哪配置的这个参数,或则在哪用到的
HBASE_CLIENT_PREFETCH
轩辕依梦Q 发表于 2015-9-21 14:43:00
bob007 发表于 2015-9-21 14:31
HBASE_CLIENT_PREFETCH_LIMIT

说没有这个名称,是不是落下什么了,比如上面

网上有帖子说nutch和hbase结合使用时有这样报错,但这个和nutch无关啊
bob007 发表于 2015-9-21 14:31:31
HBASE_CLIENT_PREFETCH_LIMIT

说没有这个名称,是不是落下什么了,比如上面

关闭

推荐上一条 /2 下一条