写点什么

MySQL 亿级数据量实时同步,如何完美 Hold 住

2020 年 1 月 17 日

MySQL亿级数据量实时同步,如何完美Hold住

背景

MySQL 由于自身简单、高效、可靠的特点,成为小米内部使用最广泛的数据库,但是当数据量达到千万/亿级别的时候,MySQL 的相关操作会变的非常迟缓;如果这时还有实时 BI 展示的需求,对于 MySQL 来说是一种灾难。


为了解决 SQL 查询慢,查不了的业务痛点,我们探索出一套完整的实时同步,即席查询的解决方案,本文主要从实时同步的角度介绍相关工作。早期业务借助 Sqoop 将 Mysql 中的数据同步到 Hive 来进行数据分析,使用过程中也带来了一些问题:


  • 虽然 Sqoop 支持增量同步但还属于粗粒度的离线同步,无法满足实时性的需求;

  • 每次同步 Sqoop 以 SQL 的方式向 MySQL 发出数据请求也在一定程度上对 MySQL 带来一定的压力;

  • 同时 Hive 对数据更新的支持也相对较弱。


为了更有效地连接前端业务数据系统(MySQL)和后端统计分析系统(查询分析引擎),我们需要一套实时同步 MySQL 数据的解决方案。


小米内部实践

如何能够做到数据的实时同步呢?我们想到了 MySQL 主从复制时使用的 Binlog 日志,它记录了所有的 DDL 和 DML 语句(除了数据查询语句 select、show 等),以事件形式记录,还包含语句所执行的消耗时间。


下面来看一下 MySQL 主从复制的原理,主要有以下几个步骤:


  1. master(主库)在每次准备提交事务完成数据更新前,将改变记录到二进制日志(binary log)中;

  2. slave(从库)发起连接,连接到 master,请求获取指定位置的 Binlog 文件;

  3. master 创建 dump 线程,推送 Binlog 的 slave;

  4. slave 启动一个 I/O 线程来读取主库上 binary log 中的事件,并记录到 slave 自己的中继日志(relay log)中;

  5. slave 还会起动一个 SQL 线程,该线程从 relay log 中读取事件并在备库执行,完成数据同步;

  6. slave 记录自己的 Binlog。



Binlog 记录了 MySQL 数据的实时变化,是数据同步的基础,服务需要做的就是遵守 MySQL 的协议,将自己伪装成 MySQL 的 slave 来监听业务从库,完成数据实时同步。


结合小米内部系统特点,构建了 MySQL 数据同步服务–-LCSBinlog,作为一种独立的数据接入方式整合在 Talos Platform 中,Talos Platform 作为大数据集成的基础解决方案,以自研消息队列 Talos 为数据总线,连接各种系统为主要目标,提供丰富的数据 Source 输入和数据 Sink 输出,并且 Talos 天然支持流式计算,因此业务可以充分利用 Talos Platform 互联互通的特性,并结合自身的业务需求实现更加高阶的业务场景。



上图是 Talos Platform 中的整体流程架构,其中标红部分是目前 LCSBinlog 在小米内部使用最广泛的一条链路:MySQL —> Talos —> Kudu —> BI,数据同步到 kudu 后借助 Spark SQL 查询引擎为上层 BI 系统提供即席查询服务,Kudu 和 Spark SQL 的整合细节可以参见往期内容:告别”纷纷扰扰”—小米OLAP服务架构演进


LCSBinlog 服务的主体架构

服务一共有两种角色:


Master :主要负责作业的调度。


Worker: 主要完成具体的数据同步任务。


在 Worker 上运行两种作业:


  1. BinlogSyncJob:每一个 MySQL 库都会对应这样一个 Job,将 Binlog 日志完整地写入到服务创建的 Talos topic 中;

  2. MySQLSyncJob:同步历史数据,消费 Binlog 数据,过滤特定库表数据实时同步至用户配置的 topic 中。


服务整体依赖于 Zookeeper 来同步服务状态,记录作业调度信息和标记作业运行状态;在 kudu 表中记录作业同步进度。



控制流程如下:


  1. Worker 节点通过在 Zookeeper 上注册告知自己可以被调度;

  2. 通过在 Zookeeper 上抢占 EPHEMERAL 临时节点实现 Master 的 HA;

  3. 用户在融合云(Web)上注册 BinlogSource 同步任务;

  4. Master 周期性从配置服务读取 Binlog 同步作业配置;

  5. Master 更新 Zookeeper 中的调度信息;

  6. Worker 节点 根据 Zookeeper 上的调度信息启动新分配任务,停止配置失效任务;作业启动后完成数据实时同步并周期性将同步进度记录在 kudu 中;

  7. 服务上报监控信息到 Falcon 平台,作业异常退出发送报警邮件。


如何保障数据正确性

顺序性

用户配置的每一个 Binlog Source 都会绑定一个 Talos 的 topic,在进行消费的时候需要保证同一条 MySQL 记录操作的顺序性,消息队列 Talos 是无法保证全局消息有序的,只能保证 partition 内部有序。


对于配置分库分表或者多库同步任务的 Binlog Source,服务会根据库表信息进行 hash,将数据写入相应的 partiton,保证同一张表的数据在一个 partition 中,使得下游消费数据的顺序性。


对于单表同步的作业目前使用一个 partition 保证其数据有序。


一致性

如何保证在作业异常退出后,作业重新启动能够完整地将 MySQL 中的数据同步到下游系统,主要依赖于以下三点:


  1. 服务会记录作业同步的 offset,重启后从上次 commit 的 offset 继续消费;

  2. Binlog 数据的顺序性保证了即便数据被重复消费(未 commit 的数据),也能对同一条记录的操作以相同的顺序执行;

  3. 下游存储系统 kudu,Es ,Redis 基于主键的操作能够保证 Binlog 重复回放后数据的最终一致性。


应用场景

有了这份数据我们可以做些什么事情呢,本节例举了几种常见的应用场景。


实时更新缓存

业务查询类服务往往会在 MySQL 之上架设一个缓存,减少对底层数据库的访问;当 MySQL 库数据变化时,如果缓存还没有过期那么就会拿到过期的数据,业务期望能够实时更新缓存。


利用 Binlog 服务,根据策略实时将数据同步到 redis 中,这样就能够保证了缓存中数据有效性,减少了对数据库的调用,从而提高整体性能。



异步处理,系统解耦

随着业务的发展,同一份数据可能有不同的分析用途,数据成功写入到 MySQL 的同时也需要被同步到其他系统;如果用同步的方式处理,一方面拉长了一次事务整个流程,另一方面系统间也会相互影响。


数据在 MySQL 中操作成功后才会记录在 Binlog 中,保证下游处理到时的一致性;使用 Binlog 服务完成数据的下发,有助于系统的解耦。


关于异步处理,系统解耦在消息队列价值思考一文中有更深入的解读。


即席查询的 BI 系统

就如文章开篇提到的,MySQL 在一定场景下的性能瓶颈,MySQL 数据同步到 kudu 后可以借助 SparkSQL 完成性能的提升。


因为同样是 SQL 接口,对使用者的切换成本也是较低的,数据同步到更适合的存储中进行查询,也能够避免因大查询而对原 MySQL 库其他查询的影响。


目前小米内部稳定运行 3000+的同步作业,使用 Binlog 服务同步数据到 kudu 中;小米内部 BI 明星产品 XDATA 借助整套同步流程很好地支持了运营、SQL 分析同学日常统计分析的需求。


如何使用 Binlog 数据

用户接入数据的时候要求 MySQL 库开启 Binlog 日志格式必须为 Row 模式:记录的是每一行记录的每个字段变化前后的值,虽然会造成 Binlog 数据量的增多,但是能够确保每一条记录准确性,避免数据同步不一致情况的出现。


最终通过监听 Binlog 日志,LCSBinlog 服务将数据转换成如下的数据结构,写入用户注册的 Topic 中, 目前 Sink 服务使用 SparkStreaming 实时转储数据到 kudu 中,后续也将逐步迁移到 Flink 上以提升资源利用、降低延迟。



业务用户也可以根据我们提供的数据格式,实时消费 Talos 数据以实现更复杂的业务逻辑,下表为每一种数据操作,是否保存修改前后的列表。



疑难杂症

下面分享 2 个上线后遇到的有趣问题。


数据不一致问题,业务使用唯一索引

业务接入一段时间后, 发现部分表会偶尔存在 kudu 表的数据条目数多于同步的 MySQL 表的数据条目数,我们将多出来的数据与 MySQL 产生的 Binlog 日志经过一一对比,发现用户在 MySQL 表中设置了唯一索引,通过唯一索引修改了主键,而 kudu 中的数据是通过主键标识或更新一条记录的,于是 update 操作变成了 insert 操作,这就造成了原来的 1 条记录变成了 2 条。


解决办法:对于这种类型的表,LCSBinlog 服务会把一次 Update 操作转换成一条 Delete 数据和一条 Insert 数据。


Full Dump 同步历史数据时,客户端超时

服务刚上线的时候,通过 jdbc 执行 SQL 的方式完成全量历史数据的同步,在同步的过程中会发现 dump 任务会卡顿很长时间才会返回结果,当数据量很大会出现超时同步失败的情况,会造成数据的延迟。调研后发现使用 MySQL 官方 jdbc 在客户端查询数据的时候,默认为从服务器一次取出所有数据放在客户端内存中,fetch size 参数不起作用,当一条 SQL 返回数据量较大时可能会出现 OOM。


解决办法:当 statement 设置以下属性时,采用的是流数据接收方式,每次只从服务器接收部份数据,直到所有数据处理完毕。优化后历史数据同步稳定运行,对 MySQL 端的压力也很小。



总结

MySQL 以 Binlog 日志的方式记录数据变化,基于流式数据的 Change Data Caputre (CDC)机制实现了 LCSBinlog 服务。


本文主要对 LCSBinlog 的服务架构、应用场景以及在小米内部的实践经验进行了介绍,也和大家分享了我们实际中遇到的问题和解决方案,希望能够帮助到大家理解服务的原理,带来启发,也欢迎大家和我们一起交流。


本文转载自公众号小米云技术(ID:mi-cloud-tech)。


原文链接


https://mp.weixin.qq.com/s/n9gvt_dSqqnDavnA9D6ImA


2020 年 1 月 17 日 10:005462

评论 2 条评论

发布
用户头像
redis如果是从binlog拿数据,那么redis中的数据必然会延迟几秒。这样App从缓存中获取的数据就不是最新的,这个如何解决呢?
2020 年 01 月 19 日 10:26
回复
用户头像
分类错了,不应该放在前端下
2020 年 01 月 17 日 17:22
回复
没有更多了
发现更多内容

每个现代人都应该知道的包豪斯| 艺术

chaozh

Combine中@Published浅析

kingnight_pig

swift Combine Publisher

极客时间架构师训练营week7作业

好名字

极客大学架构师训练营 作业

后疫情生产力时代智能自动化打造以人为中心的企业

人称T客

创世 | 中国古神话

chaozh

神话

深入理解 JS 参数传递

墨子苏

Java 前端

Presto性能调优的五大技巧

华为云开发者社区

大数据 数据 内存 存储 华为云

创建有效DevOps测试策略的5大技巧

禅道项目管理

DevOps 测试 云安全

性能压力测试

dongge

架构师训练营 - 命题作业 第 7 周

叶鹏

深入 Java Web 技术内幕(二)浅析DNS域名解析过程

itlemon

DNS 域名解析

神国统治者 | 中国古神话

chaozh

腾讯的背水一战还是奋力一搏? | 互联网

chaozh

Spring Cloud微服务技术栈:搭建高可用Eureka Server、服务注册与发现

itlemon

Spring Cloud

一文读懂数据库中的乐观锁和悲观锁和MVCC

X先生

数据库 乐观锁 悲观锁 并发控制

官宣了,英特尔并非断供浪潮而是属于内部供应链调整

Geek_116789

读梁宁产品30讲随笔(1)

Jackchang234987

产品 产品思维

MongoDB 事务,复制和分片的关系

华为云开发者社区

数据库 mongodb 事务 快照 华为云

如何挑选编程笔记本 | 数码产品

chaozh

数据产品经理必备技能大纲

Jackchang234987

产品 产品经理 数据

放下纠结,你就远离了拖延症

泰稳@极客邦科技

创业 个人成长 企业管理

深入理解 JS 中的变量提升

墨子苏

Java 前端

人民自己创造的节日 | 经济

chaozh

架构师课程第七周总结

dongge

女娲造物与补天 | 中国古神话

chaozh

第7周性能优化

深入浅出开源监控系统Prometheus(上)

vivo互联网技术

监控 Prometheus

Phobos新变种藏身系统激活工具再掀勒索风暴,360安全大脑强力“截杀”

360安全卫士

数据结构

彭阿三

百度大脑领先活体检测+合成图鉴别,1步调用让人脸“照片活化”无从遁形

百度大脑

人工智能 AI 人脸识别 百度大脑

面试:围绕一个SpringBoot问我了30个问题!

Java小咖秀

spring 面试 面试题 springboot SpringBoot 2

演讲经验交流会|ArchSummit 上海站

演讲经验交流会|ArchSummit 上海站

MySQL亿级数据量实时同步,如何完美Hold住-InfoQ