分享

求助帖:spark+phoenix数据写入

chyeers 发表于 2015-9-2 20:53:34 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 0 12515
测试环境:hadoop-2.2,phoenix-4.4.0,hbase-0.98.12.1,spark-1.4.1
测试内容:运用phoenix的spark组件向hbase中写入RDDs
异常问题:java.sql.SQLException: java.lang.IllegalAccessError: class com.google.protobuf.HBaseZeroCopyByteString cannot access its superclass com.google.protobuf.LiteralByteString
尝试解决:hbase的一个BUG,如http://www.aboutyun.com/forum.php?mod=viewthread&tid=9464所述。尝试添加hbase-protocol-0.98.12.1-hadoop2.jar在spark-submit --jars 之后,无效;尝试
$ HADOOP_CLASSPATH=/path/to/hbase-protocol.jar:/path/to/hbase/conf hadoop jar MyJob.jar MyJobMainClass$ HADOOP_CLASSPATH=$(hbase mapredcp):/path/to/hbase/conf hadoop jar MyJob.jar MyJobMainClass
$ HADOOP_CLASSPATH=$(hbase classpath) hadoop jar MyJob.jar MyJobMainClass
报错:Exception in thread "main" java.lang.NoClassDefFoundError: scala/collection/Seq

求指教!

没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条