spark查询hive异常

查看数: 1616 | 评论数: 2 | 收藏 0
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2022-4-1 11:21

正文摘要:

感觉是超时被中断了,每次都是耗时240000ms后报错,请各位大神指导!

回复

一曲离殇 发表于 2022-4-6 18:10:04
客户都数据源连接池设置小了,并发执行的sql数量超过连接池最大值时,spark-jdbc服务端就报上述异常,调大连接池大小即可
阿飞 发表于 2022-4-1 17:38:17
没有太多有价值的信息,如果每次都这样,看看网络、端口等方面的配置。
如果只是偶尔出现,检测内存等方面的问题
关闭

推荐上一条 /2 下一条