spark straming 运行时的错误

查看数: 6048 | 评论数: 2 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2017-3-20 11:25

正文摘要:

请教一个问题 我从flume采集数据,传入kafka,spark straming从kafka中去消费 当数据量上来之后出现该错误 自己的几个猜想,kafka的topic分区什么的给小了,spark集群的内存小了?(spark给的配置是10c3g)

回复

qcbb001 发表于 2017-3-20 15:05:44
本帖最后由 qcbb001 于 2017-3-20 15:07 编辑

org.apache.spark.sparkexception job aborted due to stage failure java.lang.arrayindexoutofboundexception


应该不是内存的问题,可能跟文件的内容有关系。
楼主英文不错可以参考
http://apache-spark-user-list.1001560.n3.nabble.com/spark-shell-running-into-ArrayIndexOutOfBoundsException-td10480.html
feloxx 发表于 2017-3-20 11:26:48
图片点击后可以放大
关闭

推荐上一条 /2 下一条