分享

hiveserver2 JDBC上的实践DBCP连接池

einhep 发表于 2016-11-2 19:37:49 [显示全部楼层] 回帖奖励 阅读模式 关闭右栏 2 26639
查询程序一开始只是简单使用dbcp来做连接的限制。在实践的过程中遇到各种问题,本文记录DBCP的参数优化提高程序健壮性的两次过程。

最开始的DBCP的配置:
[mw_shl_code=bash,true]<bean id="hiveDataSource" class="org.apache.commons.dbcp.BasicDataSource"
  destroy-method="close"
  p:driverClassName="${hiveDriverClassName}"
  p:url="${hiveUrl}"
  p:username="${hiveUsername}"
  p:password="${hivePassword}"
  p:maxIdle="${hiveMaxIdle}"
  p:maxWait="${hiveMaxWait}"
  p:maxActive="${hiveMaxActive}" />

<bean id="hiveTemplate" class="org.springframework.jdbc.core.JdbcTemplate">
  <property name="dataSource">
      <ref bean="hiveDataSource" />
  </property>
</bean>[/mw_shl_code]


第一个遇到的问题,就是每次hiveserver2重启后,这个查询程序也得重启。在实际使用过程中非常的麻烦!!
重启问题(连接断开后不能重连)
首先给出学习的链接 http://elf8848.iteye.com/blog/1931778 巨详细,同时问题的场景都一模一样啊!!
添加三个参数:
  • testOnBorrow = “true” 借出连接时不要测试,否则很影响性能
  • testWhileIdle = “true” 指明连接是否被空闲连接回收器(如果有)进行检验.如果检测失败,则连接将被从池中去除.
  • validationQuery = “show databases” 验证连接是否可用,使用的SQL语句
解释:
testWhileIdle = “true” 表示每 {timeBetweenEvictionRunsMillis} (默认-1,不执行)秒,取出 {numTestsPerEvictionRun} (默认值3)条连接,使用 {validationQuery} 进行测试 ,测试不成功就销毁连接。销毁连接后,连接数量就少了,如果小于minIdle数量,就新建连接。
testOnBorrow = “true” 它的默认值是true,如果测试失败会drop掉然后再borrow。false表示每次从连接池中取出连接时,不需要执行 {validationQuery} 中的SQL进行测试。若配置为true,对性能有非常大的影响,性能会下降7-10倍。所在一定要配置为false.
调整参数后hiveserver2重启,查询再连会先报错然后再连。在每次取连接的时刻使用 show databases 测试,如果失败则从pool中删掉这个连接,重新再取,实现了重连的效果。这里不用 select 1 hive里面执行很慢, 同时testWhileIdle并没有生效,因为没有配置timeBetweenEvictionRunsMillis参数。
调整后的:
[mw_shl_code=bash,true]<bean id="hiveDataSource" class="org.apache.commons.dbcp.BasicDataSource"
destroy-method="close"
p:driverClassName="${hiveDriverClassName}"
p:url="${hiveUrl}"
p:username="${hiveUsername}"
p:password="${hivePassword}"
p:testOnBorrow="${hiveTestOnBorrow}"
p:testWhileIdle="${hiveTestWhileIdle}"
p:validationQuery="${hiveValidationQuery}"
p:maxIdle="${hiveMaxIdle}"
p:maxWait="${hiveMaxWait}"
p:maxActive="${hiveMaxActive}"
/>[/mw_shl_code]
问题又来了,由于测试切换tez和spark才配置了上面的重连。但是切换到spark后,启动的spark会一直保持(连接创建的session不会主动关闭),直到hiveserver2 session超时(默认6h检查一次,7h idle就关闭)。
注意:有个隐忧,hive-on-spark每个连接都创建一个SESSION,这就退化到MR操作了。不能完全利用SPARK的优势!!例如业务中,即查询count、又获取一页数据,这里就是两个单独的spark程序!!N个session就N个 hive on spark 啊!!
第二个问题,服务端session强制关闭
问题其实和参考中的: MySQL8小时问题,Mysql服务器默认连接的“wait_timeout”是8小时,也就是说一个connection空闲超过8个小时,Mysql将自动断开该 connection 一模一样的。在增加 minEvictableIdleTimeMillis 和 timeBetweenEvictionRunsMillis 设置检查和回收的时间。
  • timeBetweenEvictionRunsMillis = “1800000” 每30分钟运行一次空闲连接回收器,没必要那么频繁。
  • minEvictableIdleTimeMillis = “3600000” 池中的连接空闲1个小时后被回收,如果1个半小时没有操作,这个session就会被客户端关闭。可以通过yarn-8088的scheduler页面查看。
设置后的最终效果:
[mw_shl_code=bash,true]<bean id="hiveDataSource" class="org.apache.commons.dbcp.BasicDataSource"
destroy-method="close"
p:driverClassName="${hiveDriverClassName}"
p:url="${hiveUrl}"
p:username="${hiveUsername}"
p:password="${hivePassword}"
p:testOnBorrow="${hiveTestOnBorrow}"
p:validationQuery="${hiveValidationQuery}"
p:maxWait="${hiveMaxWait}"
p:maxIdle="${hiveMaxIdle}"
p:maxActive="${hiveMaxActive}"
p:testWhileIdle="${hiveTestWhileIdle}"
p:timeBetweenEvictionRunsMillis="${hiveTimeBetweenEvictionRunsMillis}"
p:minEvictableIdleTimeMillis="${hiveMinEvictableIdleTimeMillis}"
p:removeAbandoned="true"
p:logAbandoned="true"
/>[/mw_shl_code]
很多程序都有很多参数,大部分能通过文档明白,但是一些参数不到实践真的很难真正体会它的含义。参考的文章两次改进我查看了,但是第一次看的时刻根本没去加其他参数,因为对我来说没用,解决当前问题用不到嘛。

hadoop的参数更多,core/hdfs/mapred/yarn需要多用才能发现参数的功能和妙用。纸上得来终觉浅,绝知此事要躬行 。







已有(2)人评论

跳转到指定楼层
tatata000 发表于 2016-11-3 14:12:41
dbcp不支持自动重连,c3p0有用过吗?
回复

使用道具 举报

hahaxixi 发表于 2016-11-4 15:35:38
纸上得来终觉浅,绝知此事要躬行 ,好诗~~~
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条