写点什么

DAS 解决延时突高的案例分享

  • 2020-03-27
  • 本文字数:3603 字

    阅读完需:约 12 分钟

DAS 解决延时突高的案例分享

DAS 是信也科技自研的数据库访问框架。它包括数据库控制台 das console,数据库客户端 das client 和数据库服务端 das server 三部分。DAS 是基于 Java 语言开发的,支持数据库管理,ORM,SQL 创建,分库分表操作的一体化数据库访问解决方案。


DAS 项目从去年开始已经在 GitHub 上开源:https://github.com/ppdaicorp/das



DAS 直连方式架构图


信也科技的应用大量使用 DAS 作为数据库访问中间件,目前几百个应用接入了 DAS。


作为公司的标准数据库访问技术,DAS 上线以来一直运行稳定。作为 DAS 团队,我们在接入的众多应用实战中积累了不少数据库访问相关的经验。


虽然我们这里分享的是 DAS 的真实技术支持的案例,但是我认为它的经过和结果对类似的情景仍旧很有借鉴的意义。

问题背景

去年公司有一个使用了 DAS 的对接外部系统的应用,应用开发人员反映系统会时不时地发生数据库慢查询。我们通过日志系统发现这些慢查询发生的比率极低,甚至低于千分之一。


如果这是个普通的应用,低于千分之一的慢查询比率是可以接受的。但是这一个对接外部系统的应用,外部系统对延时要求非常高,即使千分之一的高延迟仍旧不满足需求。

问题定位

首先,我们联系了 DBA,从数据库日志角度查看是数据库端是否有慢查询发生。DBA 团队在 MySQL 上面有专门记录慢查询的日志。慢查询的日志结果是否定的,而且数据库的数据量也在合理的水平。如果数据库端没有发生慢查询,那一定是整个链路其他地方发生了延时,随后我们把精力回到应用端。


通过研究日志,我们发现了和直觉相反的现象:延时没有发生在数据库操作频率比较高的操作上,而是发生在一些操作频率很低的操作上。


问题很可能和程序状态变迁有关。在应用端,DAS 本身是一个无状态的架构,它主要依赖于无状态的 JDBC 和 DataSource。DataSource 是典型有状态的程序,所以问题发生在 DataSource 的可能性最大。


DataSource 的本质是为了节省程序的时间和空间,对数据库连接做的缓存。它的设计思路和其他软件缓存的设计思路是一样的:要把实例放到缓存池管理,只不过这里的实例是数据库连接。每种数据库缓存池都有一系列的配置参数,它们都是用来调节缓存池的行为,通过不同的参数配置就能为不同的场景服务。


通过分析 DataSource 的配置,我们找到了原因。原因是由于数据库数据库两次操作间隔空闲时间太长,导致连接池里所有的 idle 连接被清空。后续新连接需要建立物理连接,每次建立物理连接,需要建立 socket 以及数据库的安全认证这些费时操作。


既然问题定位在 DataSource 对 idle 连接的行为上,那么我们就从 idle 的配置着手。DAS 使用 Tomcat 的 DataSource 获取数据库连接实例。Tomcat 的数据源提供了有很多的配置参数,这些参数决定了数据源的行为。


我们最后把参数定位在 minIdle 这个参数上。从 Tomcat 官方文档上这样解释这个参数:


The minimum number of established connections that should be kept in the pool at all times.


如果把数据源看做一个缓存,那么 minIdle 就是这个缓存的 minimum pool size。当时我们这个 minIdle 参数设置的是 0,设置成 0 的目的在于节省数据库连接。数据库连接是一种宝贵的资源,一个程序保持 idle 的连接太多不释放是一种浪费,对数据库这个共享的资源更是浪费,一个数据库往往同时被多个应用共同使用。


DBA 会设置每个数据库的最大连接数(max_connections)用以保护数据库不被请求压垮。当一个应用占据过多 idle 的连接,势必会影响其他应用的连接获取。


当 minIdle 参数设置成 0,固然节约连接,但是它在极端情况下可能产生效果就是:当连接池中的连接长久不用时,连接池内所有 idle 连接全部被清空。Tomcat 数据源会在后台定时启一个线程清理 idle 的连接,将 idle 的连接数降到 minIdle。


在设置成 0 之后,相当于连接池会被清空,于是后续第一个连接就需要建立真正的物理数据库连接,导致耗时飙高。在这个案例中,就是发生了这个情况。

解决方案

我们将参数 minIdle 从 0 改为 1,这样一来连接池中至少有一个连接可以被复用,而且保持一个 idle 连接也不算浪费。同时,我们通过增大了 minEvictableIdleTimeMillis 的参数把连接池中 idle 连接的最小空闲时间从 30 秒增大到 10 分钟。这样的话,位于缓存池里的 idle 连接生命周期延长了,池子里的 idle 数变多,增加了缓存命中率。需要注意的是 minEvictableIdleTimeMillis 这个参数控制的是 evict 掉缓存池里大于 minIdle 数的连接,在 minIdle 范围里面的连接是不会被它 evict 的。


是不是完美解决问题?不,故事未完。

遇到新问题

当我们在测试的时候发现,程序会报异常:


Caused by:

com.mysql.jdbc.exceptions.jdbc4.CommunicationsException:

The last packet successfully received from the server was 9,969,393 milliseconds ago.


这是由 minIdle 设置为 1 造成的。通过调查发现,这是由于 MySQL 服务器有一个 wait_timeout 的参数,默认是 8 小时。这也是一个保护 MySQL 数据库自我节省资源的行为。我们的数据库设置的 30 分钟,是也就是说一个连接空闲超过 30 分钟,MySQL 服务器将主动断开该连接。例子中的 9,969,393 毫秒相当于好几个小时,远超 30 分钟,所以导致了这种异常。这时应用从 DataSource 取连接的话,取到的就是那个失效的连接。minIdle 设置成 1 以后,那个长时间 idle 的连接就一直呆在连接池里面,甚至被 MySQL 服务器端断掉。


那加大 wait_timeout?加大 wait_timeout 是不符合 DBA 规范。怎么办?Tomcat 数据源提供了另一个有用的参数 testOnBorrow,官方文档上这样解释这个参数:


The indication of whether objects will be validated before being borrowed from the pool.

If the object fails to validate, it will be dropped from the pool, and we will attempt to borrow another.


如果把这个默认 false 值变为 true 之后,连接池会把连接从连接池拿出的时候会做验证连接有效性。这样就保证了从池里出来都是有效的连接。

验证与上线

最后,我们在本地开发环境验证了解决这个连接超时的方案。首先,先把本地测试 MySQL 服务器的 wait_timeout 的参数调低便于模拟超时,然后通过代码逻辑控制,将两次访问数据库的时间间隔超过 wait_timeout 参数时间,观察数据源在这种场景下的表现。在两个不同的数据源配置测试条件下,观察两次程序的结果。


本地验证成功之后,为了避免修改配置之后引发新的问题,我们首先进行了 JUnit 单元回归测试,保证基本功能完整。通过这几百个 JUnit 单元测试之后,把新配置部署到正式的测试环境进行观察。确认测试环境运行正常以后,最后才把配置更新到预发和生产环境。正规完善的流程是软件质量的保证。


至此,完美解决了这个问题。

其他数据源?

有人会问如果我没用 Tomcat 的数据源,用的是其他的数据源实现该如何做呢?


对于一个成熟的数据源产品来说,Idle connection handling 和 Validation 都是必有的功能。市面上大部分主流的数据源产品都有这些类似的参数。


譬如说流行的 Druid 和 DBCP2,他们也都有一模一样的 minIdle,minEvictableIdleTimeMillis 和 testOnBorrow 配置项。HikariCP 的类似配置项是 minimumIdle 和 idleTimeout。

感悟与总结

解决这个延时突高的问题,只是我们中间件团队众多日常技术支持的一个案例。


我们中间件团队和其他技术团队相比有特别之处,在于需要服务于公司各种不同的业务线和技术线。我们的用户有着不同的需求和特性,应用场景不同,技术要求也不同,也就会产生各种各样的问题。有对并发要求高的,有对延时要求高的,有对 API 易用性要求高的,有对监控数据要求高的,等等。


虽然遇到故障和问题各色各样,但是我们还是从这些实战中总结出一些共性的地方。我们可以把解决问题的过程总结为:反复地假设问题和论证,最后定位解决问题的过程。拿这个案例来说,起初用户来找到我们报问题的时候,我们也一头雾水:为啥低并发的延时比高并发还高?起初,因为没有明确的怀疑点,所以我们将链路上的每一点都检查了一下。从数据库到网络,甚至咨询了做监控的同学,以确认延时时间的正确性。通过反复调查,我们才将问题定位在客户端。


在排查问题的过程中,好的监控起到了关键作用。一般监控有两类输出:警告和日志。应用团队就是通过警告及时发现了问题,而我们中间件团队利用日志排查问题。日志的质量往往决定了定位问题的效率。好的监控能够提高你从表面现象到找到背后原因(从 what 到 why)的效率。


在这个解决这个延时突高的案例上,我们也是从日志上得到蛛丝马迹。DAS 本身会打详细的日志,通过这些日志,我们可以看到 DAS 的代码和它底层 JDBC 消耗的时间,从而定位耗时发生在 DAS 的更底层。我们还有个集中式日志系统,能在上面看到异常日志的原始信息,也可以在这个系统上面看各种维度的统计数据,譬如说,对这个案例至关重要的 999 线和 QPS。如果我们没有这些信息,我怀疑还能不能定位这个问题。


希望我们的这次排查问题的经历经过对大家有所帮助!


2020-03-27 08:451387

评论

发布
暂无评论
发现更多内容

openGauss 社区 2022 年 9 月运作报告

10分钟开发Kubernetes Operator

俞凡

架构 Kubernetes 云原生

如何优雅地编写一个高逼格的JS插件?

茶无味的一天

JavaScript 前端 js JS插件

《编程的原则》读书笔记(二): 编程理论的三个思想和六个实现原则

Chares

软件工程 软件开发 编程原理 软件开发原则

OpenHarmony有氧拳击之应用端开发

OpenHarmony开发者

OpenHarmony

创新公司iLabService 释普科技启示录

B Impact

独家巨献!阿里技术专家兼Github贡献者,整理的Spring Security入门到成神

Geek_0c76c3

Java 数据库 开源 程序员 开发

【一Go到底】第九天---进制

指剑

Go golang 10月月更

Zebec即将推出公链并开放节点申请,潜力几何?

西柚子

携手武汉白鱀豚保护基金会,英特尔以责任为先多举推动环保公益

科技之家

大数据ELK(十九):使用FileBeat采集Kafka日志到Elasticsearch

Lansonli

Filebeat 10月月更

软件测试 | 测试开发 | Java or Python?测试开发工程师如何选择合适的编程语言?

测吧(北京)科技有限公司

测试

你好,广州!openGauss广州用户组招募计划正式开启

SQL抽象语法树及改写场景应用

京东科技开发者

sql SQL优化 场景应用 SQL语言 抽象语法树

32天高效突击:狂刷《Java权威面试指南(阿里版)》,offer拿到手软!

Geek_0c76c3

Java 数据库 开源 程序员 开发

DAG 任务调度与 go-streams 结合的应用实践

KaiwuDB

两将军问题和TCP三次握手

有态度的马甲

TCP协议 两将军问题

企业社会责任先行,公益课程推动环保科普教育

科技之家

C语言中的内存模型

C++后台开发

内存模型 C语言 C/C++ linux开发 C++开发

软件测试 | 测试开发 | Google 测试总监聊如何经营成功的测试职业生涯

测吧(北京)科技有限公司

测试

Flowable 中 ReceiveTask 怎么玩?

江南一点雨

Java springboot workflow flowable JavaEE

网络安全漏洞分析之远程代码执行

网络安全学海

黑客 网络安全 信息安全 渗透测试 漏洞挖掘

旺链科技入选2022“科创中国”创新成果名单

旺链科技

区块链 金融科技 产业区块链

Google 发布:DevOps 2022现状报告

SEAL安全

DevOps 研发效能 软件交付 软件供应链

干货|仅需3步完成酷炫数据可视化大屏制作!

云智慧AIOps社区

大前端 低代码 数据可视化 智慧大屏可视化 可视化大屏

易操作、可观测、可扩展,EMQX如何简化物联网应用开发

EMQ映云科技

运维 物联网 IoT emqx 10月月更

知道了web的攻击方式,还不快防起来?

CoderBin

前端 安全 10月月更

啃完这些Spring知识点,我竟吊打了阿里面试官(附面经+笔记)

Geek_0c76c3

Java 数据库 开源 面试 开发

如何从InfluxDB/OpenTSDB无缝连接到TDengine

TDengine

数据库 tdengine 开源 时序数据库

【iOS逆向】某运营商签名算法分析

小陈

逆向思维 逆向 iOS逆向 逆向分析

defi质押挖矿存币生息理财系统开发

开发微hkkf5566

DAS 解决延时突高的案例分享_数据库_卢声远_InfoQ精选文章