【AICon】探索RAG 技术在实际应用中遇到的挑战及应对策略!AICon精华内容已上线73%>>> 了解详情
写点什么

PostgreSQL 变更事件捕获 (CDC)

  • 2019-09-15
  • 本文字数:12669 字

    阅读完需:约 42 分钟

PostgreSQL 变更事件捕获 (CDC)

本文经授权转载自公众号 PostgreSQL 中文社区。

CDC 与 ETL

数据库在本质上是一个状态集合,任何对数据库的变更(增删改)本质上都是对状态的修改。


在实际生产中,我们经常需要把数据库的状态同步到其他地方去,例如同步到数据仓库进行分析,同步到消息队列供下游消费,同步到缓存以加速查询。总的来说,搬运状态有两大类方法:ETL 与 CDC。


ETL(Extract Transform Load)着眼于状态本身,用定时批量轮询的方式拉取状态本身。


CDC(Changing Data Capture)则着眼于变更事件,以流式的方式持续收集状态变化事件(变更)。


ETL 大家都耳熟能详,每天批量跑 ETL 任务,从生产 OLTP 数据库 拉取(E) , 转换(T) 格式, 导入(L) 数仓,在此不赘述。相比 ETL 而言,CDC 算是个新鲜玩意,随着流计算的崛起也越来越多地进入人们的视线。


变更数据捕获(change data capture, CDC)是一种观察写入数据库的所有数据变更,并将其提取并转换为可以复制到其他系统中的形式的过程。 CDC 很有意思,特别是当变更能在被写入数据库后立刻用于后续的流处理时。


例如用户可以捕获数据库中的变更,并不断将相同的变更应用至搜索索引(e.g elasticsearch)。如果变更日志以相同的顺序应用,则可以预期的是,搜索索引中的数据与数据库中的数据是匹配的。同理,这些变更也可以应用于后台刷新缓存(redis),送往消息队列(Kafka),导入数据仓库(EventSourcing,存储不可变的事实事件记录而不是每天取快照),收集统计数据与监控(Prometheus),等等等等。在这种意义下,外部索引,缓存,数仓都成为了 PostgreSQL 在逻辑上的从库,这些衍生数据系统都成为了变更流的消费者,而 PostgreSQL 成为了整个数据系统的主库。在这种架构下,应用只需要操心怎样把数据写入数据库,剩下的事情交给 CDC 即可。系统设计可以得到极大地简化:所有的数据组件都能够自动与主库在逻辑上保证(最终)一致。用户不用再为如何保证多个异构数据系统之间数据同步而焦头烂额了。


实际上 PostgreSQL 自 10.0 版本以来提供的逻辑复制(logical replication)功能,实质上就是一个 CDC 应用:从主库上提取变更事件流:INSERT, UPDATE, DELETE, TRUNCATE,并在另一个 PostgreSQL 主库实例上重放。如果这些增删改事件能够被解析出来,它们就可以用于任何感兴趣的消费者,而不仅仅局限于另一个 PostgreSQL 实例。

逻辑复制

想在传统关系型数据库上实施 CDC 并不容易,关系型数据库本身的预写式日志 WAL 实际上就是数据库中变更事件的记录。因此从数据库中捕获变更,基本上可以认为等价于消费数据库产生的 WAL 日志/复制日志。(当然也有其他的变更捕获方式,例如在表上建立触发器,当变更发生时将变更记录写入另一张变更日志表,客户端不断 tail 这张日志表,当然也有一定的局限性)。


大多数数据库的复制日志的问题在于,它们一直被当做数据库的内部实现细节,而不是公开的 API。客户端应该通过其数据模型和查询语言来查询数据库,而不是解析复制日志并尝试从中提取数据。许多数据库根本没有记录在案的获取变更日志的方式。因此捕获数据库中所有的变更然后将其复制到其他状态存储(搜索索引,缓存,数据仓库)中是相当困难的。


此外,仅有 数据库变更日志仍然是不够的。如果你拥有 全量 变更日志,当然可以通过重放日志来重建数据库的完整状态。但是在许多情况下保留全量历史 WAL 日志并不是可行的选择(例如磁盘空间与重放耗时的限制)。 例如,构建新的全文索引需要整个数据库的完整副本 —— 仅仅应用最新的变更日志是不够的,因为这样会丢失最近没有更新过的项目。因此如果你不能保留完整的历史日志,那么你至少需要包留一个一致的数据库快照,并保留从该快照开始的变更日志。


因此实施 CDC,数据库至少需要提供以下功能:


  1. 获取数据库的变更日志(WAL),并解码成逻辑上的事件(对表的增删改而不是数据库的内部表示)

  2. 获取数据库的"一致性快照",从而订阅者可以从任意一个一致性状态开始订阅而不是数据库创建伊始。

  3. 保存消费者偏移量,以便跟踪订阅者的消费进度,及时清理回收不用的变更日志以免撑爆磁盘。


我们会发现,PostgreSQL 在实现逻辑复制的同时,已经提供了一切 CDC 所需要的基础设施:


  • 逻辑解码(Logical Decoding),用于从 WAL 日志中解析逻辑变更事件

  • 复制协议(Replication Protocol):提供了消费者实时订阅(甚至同步订阅)数据库变更的机制

  • 快照导出(export snapshot):允许导出数据库的一致性快照(pg_export_snapshot)

  • 复制槽(Replication Slot),用于保存消费者偏移量,跟踪订阅者进度。


因此,在 PostgreSQL 上实施 CDC 最为直观优雅的方式,就是按照 PostgreSQL 的复制协议编写一个"逻辑从库" ,从数据库中实时地,流式地接受逻辑解码后的变更事件,完成自己定义的处理逻辑,并及时向数据库汇报自己的消息消费进度。就像使用 Kafka 一样。在这里 CDC 客户端可以将自己伪装成一个 PostgreSQL 的从库,从而不断地实时从 PostgreSQL 主库中接收逻辑解码后的变更内容。同时 CDC 客户端还可以通过 PostgreSQL 提供的复制槽(Replication Slot)机制来保存自己的消费者偏移量,即消费进度,实现类似消息队列一至少次的保证,保证不错过变更数据。(客户端自己记录消费者偏移量跳过重复记录,即可实现"恰好一次 "的保证 )

逻辑解码

在开始进一步的讨论之前,让我们先来看一看期待的输出结果到底是什么样子。


PostgreSQL 的变更事件以二进制内部表示形式保存在预写式日志(WAL)中,使用其自带的 pg_waldump 工具可以解析出来一些人类可读的信息:


rmgr: Btree       len (rec/tot):     64/    64, tx:       1342, lsn: 2D/AAFFC9F0, prev 2D/AAFFC810, desc: INSERT_LEAF off 126, blkref #0: rel 1663/3101882/3105398 blk 4rmgr: Heap        len (rec/tot):    485/   485, tx:       1342, lsn: 2D/AAFFCA30, prev 2D/AAFFC9F0, desc: INSERT off 10, blkref #0: rel 1663/3101882/3105391 blk 139
复制代码


WAL 日志里包含了完整权威的变更事件记录,但这种记录格式过于底层。用户并不会对磁盘上某个数据页里的二进制变更(文件 A 页面 B 偏移量 C 追加写入二进制数据 D)感兴趣,他们感兴趣的是某张表中增删改了哪些行哪些字段。逻辑解码就是将物理变更记录翻译为用户期望的逻辑变更事件的机制(例如表 A 上的增删改事件)。


例如用户可能期望的是,能够解码出等价的 SQL 语句:


INSERT INTO public.test (id, data) VALUES (14, 'hoho');
复制代码


或者最为通用的 JSON 结构(这里以 JSON 格式记录了一条 UPDATE 事件):


{"change": [    {"kind": "update","schema": "public","table": "test","columnnames": ["id", "data" ],"columntypes": [ "integer", "text" ],"columnvalues": [ 1, "hoho"],"oldkeys": { "keynames": [ "id"],"keytypes": ["integer" ],"keyvalues": [1]      }    }  ]}
复制代码


当然也可以是更为紧凑高效严格的 Protobuf 格式,更为灵活的 Avro 格式,抑或是任何用户感兴趣的格式。


逻辑解码 所要解决的问题,就是将数据库内部二进制表示的变更事件,解码(Decoding)成为用户感兴趣的格式。之所以需要这样一个过程,是因为数据库内部表示是非常紧凑的,想要解读原始的二进制 WAL 日志,不仅仅需要 WAL 结构相关的知识,还需要系统目录(System Catalog),即元数据。没有元数据就无从得知用户可能感兴趣的模式名,表名,列名,只能解析出来的一系列数据库自己才能看懂的 oid。


关于流复制协议,复制槽,事务快照等概念与功能,这里就不展开了,让我们进入动手环节。

快速开始

假设我们有一张用户表,我们希望捕获任何发生在它上面的变更,假设数据库发生了如下变更操作


下面会重复用到这几条命令


DROP TABLE IF EXISTS users;CREATE TABLE users(id SERIAL PRIMARY KEY, name TEXT);
INSERT INTO users VALUES (100, 'Vonng');INSERT INTO users VALUES (101, 'Xiao Wang');DELETE FROM users WHERE id = 100;UPDATE users SET name = 'Lao Wang' WHERE id = 101;

复制代码


执行这几条命令的结果是,数据库中有一张用户表,表里最终的状态是只有一条(101, ‘Lao Wang’)的记录。而无论是曾经有一个名为 Vonng 的用户存在过的痕迹,抑或是隔壁老王也曾年轻过的事实,都随着对数据库的删改而烟消云散。我们希望这些事实不应随风而逝,它们也应当被记录下来。

操作流程

通常来说,订阅变更需要以下几步操作:


选择一个一致性的数据库快照,作为订阅变更的起点。(创建一个复制槽),数据库发生了一些变更,读取这些变更,更新自己的的消费进度。


那么, 让我们先从最简单的办法开始,从 PostgreSQL 自带的的 SQL 接口开始。

SQL 接口

逻辑复制槽的增删查 API:


TABLE pg_replication_slots; -- 查pg_create_logical_replication_slot(slot_name name, plugin name) -- 增pg_drop_replication_slot(slot_name name) -- 删
复制代码


从逻辑复制槽中获取最新的变更数据:


pg_logical_slot_get_changes(slot_name name, ...)  -- 消费掉pg_logical_slot_peek_changes(slot_name name, ...) -- 只查看不消费
复制代码


在正式开始前,还需要对数据库参数做一些修改,修改 wal_level = logical,这样在 WAL 日志中的信息才能足够用于逻辑解码。


– 创建一个复制槽 test_slot,使用系统自带的测试解码插件 test_decoding,解码插件会在后面介绍


SELECT * FROM pg_create_logical_replication_slot('test_slot', 'test_decoding');

复制代码


– 重放上面的建表与增删改操作


-- DROP TABLE | CREATE TABLE | INSERT 1 | INSERT 1 | DELETE 1 | UPDATE 1
复制代码


– 读取复制槽 test_slot 中未消费的最新的变更事件流


SELECT * FROM  pg_logical_slot_get_changes('test_slot', NULL, NULL);    lsn    | xid |                                data-----------+-----+-------------------------------------------------------------------- 0/167C7E8 | 569 | BEGIN 5690/169F6F8 | 569 | COMMIT 5690/169F6F8 | 570 | BEGIN 5700/169F6F8 | 570 | table public.users: INSERT: id[integer]:100 name[text]:'Vonng'0/169F810 | 570 | COMMIT 5700/169F810 | 571 | BEGIN 5710/169F810 | 571 | table public.users: INSERT: id[integer]:101 name[text]:'Xiao Wang'0/169F8C8 | 571 | COMMIT 5710/169F8C8 | 572 | BEGIN 5720/169F8C8 | 572 | table public.users: DELETE: id[integer]:1000/169F938 | 572 | COMMIT 5720/169F970 | 573 | BEGIN 5730/169F970 | 573 | table public.users: UPDATE: id[integer]:101 name[text]:'Lao Wang'0/169F9F0 | 573 | COMMIT 573

复制代码


– 清理掉创建的复制槽


SELECT pg_drop_replication_slot('test_slot');

复制代码


这里,我们可以看到一系列被触发的事件,其中每个事务的开始与提交都会触发一个事件。因为目前逻辑解码机制不支持 DDL 变更,因此 CREATE TABLE 与 DROP TABLE 并没有出现在事件流中,只能看到空荡荡的 BEGIN+COMMIT。另一点需要注意的是,只有成功提交的事务才会产生逻辑解码变更事件。也就是说用户不用担心收到并处理了很多行变更消息之后,最后发现事务回滚了,还需要担心怎么通知消费者去回滚变更。


通过 SQL 接口,用户已经能够拉取最新的变更了。这也就意味着任何有着 PostgreSQL 驱动的语言都可以通过这种方式从数据库中捕获最新的变更。当然这种方式实话说还是略过于土鳖。更好的方式是利用 PostgreSQL 的复制协议直接从数据库中订阅变更数据流。当然相比使用 SQL 接口,这也需要更多的工作。

使用客户端接收变更

在编写自己的 CDC 客户端之前,让我们先来试用一下官方自带的 CDC 客户端样例——pg_recvlogical。与 pg_receivewal 类似,不过它接收的是逻辑解码后的变更,下面是一个具体的例子:


启动一个 CDC 客户端,连接数据库 postgres,创建名为 test_slot 的槽,使用 test_decoding 解码插件,标准输出


pg_recvlogical \  -d postgres \--create-slot --if-not-exists --slot=test_slot \--plugin=test_decoding \--start -f -
# 开启另一个会话,重放上面的建表与增删改操作# DROP TABLE | CREATE TABLE | INSERT 1 | INSERT 1 | DELETE 1 | UPDATE 1
# pg_recvlogical输出结果BEGIN 585COMMIT 585BEGIN 586table public.users: INSERT: id[integer]:100 name[text]:'Vonng'COMMIT 586BEGIN 587table public.users: INSERT: id[integer]:101 name[text]:'Xiao Wang'COMMIT 587BEGIN 588table public.users: DELETE: id[integer]:100COMMIT 588BEGIN 589table public.users: UPDATE: id[integer]:101 name[text]:'Lao Wang'COMMIT 589

# 清理:删除创建的复制槽pg_recvlogical -d postgres --drop-slot --slot=test_slot
复制代码


上面的例子中,主要的变更事件包括事务的开始与结束,以及数据行的增删改。这里默认的 test_decoding 插件的输出格式为:


BEGIN {事务标识}


table {模式名}.{表名} {命令 INSERT|UPDATE|DELETE} {列名}[{类型}]:{取值} …


COMMIT {事务标识}


实际上,PostgreSQL 的逻辑解码是这样工作的,每当特定的事件发生(表的 Truncate,行级别的增删改,事务开始与提交),PostgreSQL 都会调用一系列的钩子函数。所谓的逻辑解码输出插件(Logical Decoding Output Plugin),就是这样一组回调函数的集合。它们接受二进制内部表示的变更事件作为输入,查阅一些系统目录,将二进制数据翻译成为用户感兴趣的结果。

逻辑解码输出插件

除了 PostgreSQL 自带的"用于测试"的逻辑解码插件:test_decoding 之外,还有很多现成的输出插件,例如:


JSON 格式输出插件:wal2json


SQL 格式输出插件:decoder_raw


Protobuf 输出插件:decoderbufs


当然还有 PostgreSQL 自带逻辑复制所使用的解码插件:pgoutput,其消息格式文档地址。


安装这些插件非常简单,有一些插件(例如 wal2json)可以直接从官方二进制源轻松安装。


yum install wal2json11apt install postgresql-11-wal2json
复制代码


或者如果没有二进制包,也可以自己下载编译。只需要确保 pg_config 已经在你的 PATH 中,然后执行 make & sudo make install 两板斧即可。以输出 SQL 格式的 decoder_raw 插件为例:


git clone https://github.com/michaelpq/pg_plugins && cd pg_plugins/decoder_rawmake && sudo make install
复制代码


使用 wal2json 接收同样的变更


pg_recvlogical -d postgres --drop-slot --slot=test_slotpg_recvlogical -d postgres --create-slot --if-not-exists --slot=test_slot \  --plugin=wal2json --start -f -结果为:{"change":[]}{"change":[{"kind":"insert","schema":"public","table":"users","columnnames":["id","name"],"columntypes":["integer","text"],"columnvalues":[100,"Vonng"]}]}{"change":[{"kind":"insert","schema":"public","table":"users","columnnames":["id","name"],"columntypes":["integer","text"],"columnvalues":[101,"Xiao Wang"]}]}{"change":[{"kind":"delete","schema":"public","table":"users","oldkeys":{"keynames":["id"],"keytypes":["integer"],"keyvalues":[100]}}]}{"change":[{"kind":"update","schema":"public","table":"users","columnnames":["id","name"],"columntypes":["integer","text"],"columnvalues":[101,"Lao Wang"],"oldkeys":{"keynames":["id"],"keytypes":["integer"],"keyvalues":[101]}}]}
而使用decoder_raw获取SQL格式的输出pg_recvlogical -d postgres --drop-slot --slot=test_slotpg_recvlogical -d postgres --create-slot --if-not-exists --slot=test_slot \ --plugin=decoder_raw --start -f -结果为:INSERT INTO public.users (id, name) VALUES (100, 'Vonng');INSERT INTO public.users (id, name) VALUES (101, 'Xiao Wang');DELETE FROM public.users WHERE id = 100;UPDATE public.users SET id = 101, name = 'Lao Wang' WHERE id = 101;
复制代码


decoder_raw 可以用于抽取 SQL 形式表示的状态变更,将这些抽取得到的 SQL 语句在同样的基础状态上重放,即可得到相同的结果。PostgreSQL 就是使用这样的机制实现逻辑复制的。


一个典型的应用场景就是数据库不停机迁移。在传统不停机迁移模式(双写,改读,改写)中,第三步改写完成后是无法快速回滚的,因为写入流量在切换至新主库后如果发现有问题想立刻回滚,老主库上会丢失一些数据。这时候就可以使用 decoder_raw 提取主库上的最新变更,并通过一行简单的 Bash 命令,将新主库上的变更实时同步到旧主库。保证迁移过程中任何时刻都可以快速回滚至老主库。


pg_recvlogical -d <new_master_url> --slot=test_slot --plugin=decoder_raw --start -f - | psql <old_master_url>
复制代码


另一个有趣的场景是 UNDO LOG。PostgreSQL 的故障恢复是基于 REDO LOG 的,通过重放 WAL 会到历史上的任意时间点。在数据库模式不发生变化的情况下,如果只是单纯的表内容增删改出现了失误,完全可以利用类似 decoder_raw 的方式反向生成 UNDO 日志。提高此类故障恢复的速度。


最后,输出插件可以将变更事件格式化为各种各样的形式。解码输出为 Redis 的 kv 操作,或者仅仅抽取一些关键字段用于更新统计数据或者构建外部索引,有着很大的想象空间。


编写自定义的逻辑解码输出插件并不复杂,可以参阅这篇官方文档。毕竟逻辑解码输出插件本质上只是一个拼字符串的回调函数集合。在官方样例的基础上稍作修改,即可轻松实现一个你自己的逻辑解码输出插件。

CDC 客户端

PostgreSQL 自带了一个名为 pg_recvlogical 的客户端应用,可以将逻辑变更的事件流写至标准输出。但并不是所有的消费者都可以或者愿意使用 Unix Pipe 来完成所有工作的。此外,根据端到端原则,使用 pg_recvlogical 将变更数据流落盘并不意味着消费者已经拿到并确认了该消息,只有消费者自己亲自向数据库确认才可以做到这一点。


编写 PostgreSQL 的 CDC 客户端程序,本质上是实现了一个"猴版”数据库从库。客户端向数据库建立一条复制连接(Replication Connection) ,将自己伪装成一个从库:从主库获取解码后的变更消息流,并周期性地向主库汇报自己的消费进度(落盘进度,刷盘进度,应用进度)。

复制连接

复制连接,顾名思义就是用于复制(Replication) 的特殊连接。当与 PostgreSQL 服务器建立连接时,如果连接参数中提供了 replication=database|on|yes|1,就会建立一条复制连接,而不是普通连接。复制连接可以执行一些特殊的命令,例如 IDENTIFY_SYSTEM, TIMELINE_HISTORY, CREATE_REPLICATION_SLOT, START_REPLICATION, BASE_BACKUP, 在逻辑复制的情况下,还可以执行一些简单的 SQL 查询。具体细节可以参考 PostgreSQL 官方文档中前后端协议一章:请点击文章底部“阅读原文”查看


譬如,下面这条命令就会建立一条复制连接:


$ psql 'postgres://localhost:5432/postgres?replication=on&application_name=mocker'
复制代码


从系统视图 pg_stat_replication 可以看到主库识别到了一个新的"从库"


vonng=# table pg_stat_replication ;-[ RECORD 1 ]----+-----------------------------pid              | 7218usesysid         | 10usename          | vonngapplication_name | mockerclient_addr      | ::1client_hostname  |client_port      | 53420
复制代码

编写自定义逻辑

无论是 JDBC 还是 Go 语言的 PostgreSQL 驱动,都提供了相应的基础设施,用于处理复制连接。


这里让我们用 Go 语言编写一个简单的 CDC 客户端,样例使用了 jackc/pgx,一个很不错的 Go 语言编写的 PostgreSQL 驱动。这里的代码只是作为概念演示,因此忽略掉了错误处理,非常 Naive。将下面的代码保存为 main.go,执行 go run main.go 即可执行。


默认的三个参数分别为数据库连接串,逻辑解码输出插件的名称,以及复制槽的名称。默认值为:


dsn := "postgres://localhost:5432/postgres?application_name=cdc"plugin := "test_decoding"slot := "test_slot"
复制代码


也可以通过命令行提供自定义参数:


go run main.go postgres:///postgres?application_name=cdc test_decoding test_slot

package main
import ("log""os""time"
"context""github.com/jackc/pgx")
type Subscriber struct { URL string Slot string Plugin string Conn *pgx.ReplicationConn LSN uint64}

复制代码


// Connect 会建立到服务器的复制连接,区别在于自动添加了 replication=on|1|yes|dbname 参数


func (s *Subscriber) Connect() {  connConfig, _ := pgx.ParseURI(s.URL)  s.Conn, _ = pgx.ReplicationConnect(connConfig)}
复制代码


// ReportProgress 会向主库汇报写盘,刷盘,应用的进度坐标(消费者偏移量)


func (s *Subscriber) ReportProgress() {  status, _ := pgx.NewStandbyStatus(s.LSN)  s.Conn.SendStandbyStatus(status)}

复制代码


// CreateReplicationSlot 会创建逻辑复制槽,并使用给定的解码插件


func (s *Subscriber) CreateReplicationSlot() {if consistPoint, snapshotName, err := s.Conn.CreateReplicationSlotEx(s.Slot, s.Plugin); err != nil {    log.Fatalf("fail to create replication slot: %s", err.Error())  } else {    log.Printf("create replication slot %s with plugin %s : consist snapshot: %s, snapshot name: %s",      s.Slot, s.Plugin, consistPoint, snapshotName)    s.LSN, _ = pgx.ParseLSN(consistPoint)  }}
复制代码


// StartReplication 会启动逻辑复制(服务器会开始发送事件消息)


func (s *Subscriber) StartReplication() {if err := s.Conn.StartReplication(s.Slot, 0, -1); err != nil {    log.Fatalf("fail to start replication on slot %s : %s", s.Slot, err.Error())  }}
复制代码


// DropReplicationSlot 会使用临时普通连接删除复制槽(如果存在),注意如果复制连接正在使用这个槽是没法删的。


func (s *Subscriber) DropReplicationSlot() {  connConfig, _ := pgx.ParseURI(s.URL)  conn, _ := pgx.Connect(connConfig)var slotExists bool  conn.QueryRow(`SELECT EXISTS(SELECT 1 FROM pg_replication_slots WHERE slot_name = $1)`, s.Slot).Scan(&slotExists)if slotExists {if s.Conn != nil {      s.Conn.Close()    }    conn.Exec("SELECT pg_drop_replication_slot($1)", s.Slot)    log.Printf("drop replication slot %s", s.Slot)  }}

复制代码


// Subscribe 开始订阅变更事件,主消息循环


func (s *Subscriber) Subscribe() {
var message *pgx.ReplicationMessage
for {

复制代码


// 等待一条消息, 消息有可能是真的消息,也可能只是心跳包


message, _ = s.Conn.WaitForReplicationMessage(context.Background())if message.WalMessage != nil {      DoSomething(message.WalMessage) // 如果是真的消息就消费它if message.WalMessage.WalStart > s.LSN { // 消费完后更新消费进度,并向主库汇报        s.LSN = message.WalMessage.WalStart + uint64(len(message.WalMessage.WalData))        s.ReportProgress()      }    }
复制代码


// 如果是心跳包消息,按照协议,需要检查服务器是否要求回送进度。


if message.ServerHeartbeat != nil && message.ServerHeartbeat.ReplyRequested == 1 {      s.ReportProgress() // 如果服务器心跳包要求回送进度,则汇报进度    }  }}

复制代码


// 实际消费消息的函数,这里只是把消息打印出来,也可以写入 Redis,写入 Kafka,更新统计信息,发送邮件等


func DoSomething(message *pgx.WalMessage) {  log.Printf("[LSN] %s [Payload] %s",              pgx.FormatLSN(message.WalStart), string(message.WalData))}

复制代码


// 如果使用 JSON 解码插件,这里是用于 Decode 的 Schema


type Payload struct {  Change []struct {    Kind         string        `json:"kind"`    Schema       string        `json:"schema"`    Table        string        `json:"table"`    ColumnNames  []string      `json:"columnnames"`    ColumnTypes  []string      `json:"columntypes"`    ColumnValues []interface{} `json:"columnvalues"`    OldKeys      struct {      KeyNames  []string      `json:"keynames"`      KeyTypes  []string      `json:"keytypes"`      KeyValues []interface{} `json:"keyvalues"`    } `json:"oldkeys"`  } `json:"change"`}
func main() { dsn := "postgres://localhost:5432/postgres?application_name=cdc" plugin := "test_decoding" slot := "test_slot"if len(os.Args) > 1 { dsn = os.Args[1] }if len(os.Args) > 2 { plugin = os.Args[2] }if len(os.Args) > 3 { slot = os.Args[3] }
subscriber := &Subscriber{ URL: dsn, Slot: slot, Plugin: plugin,
} // 创建新的CDC客户端 subscriber.DropReplicationSlot() // 如果存在,清理掉遗留的Slot
subscriber.Connect() // 建立复制连接defer subscriber.DropReplicationSlot() // 程序中止前清理掉复制槽 subscriber.CreateReplicationSlot() // 创建复制槽 subscriber.StartReplication() // 开始接收变更流go func() {for { time.Sleep(5 * time.Second) subscriber.ReportProgress() } }() // 协程2每5秒地向主库汇报进度 subscriber.Subscribe() // 主消息循环}

复制代码


在另一个数据库会话中再次执行上面的变更,可以看到客户端及时地接收到了变更的内容。这里客户端只是简单地将其打印了出来,实际生产中,客户端可以完成任何工作,比如写入 Kafka,写入 Redis,写入磁盘日志,或者只是更新内存中的统计数据并暴露给监控系统。甚至,还可以通过配置同步提交,确保所有系统中的变更能够时刻保证严格同步(当然相比默认的异步模式比较影响性能就是了)。


对于 PostgreSQL 主库而言,这看起来就像是另一个从库。


postgres=# table pg_stat_replication; -- 查看当前从库-[ RECORD 1 ]----+------------------------------pid              | 14082usesysid         | 10usename          | vonngapplication_name | cdcclient_addr      | 10.1.1.95client_hostname  |client_port      | 56609backend_start    | 2019-05-19 13:14:34.606014+08backend_xmin     |state            | streamingsent_lsn         | 2D/AB269AB8     -- 服务端已经发送的消息坐标write_lsn        | 2D/AB269AB8     -- 客户端已经执行完写入的消息坐标flush_lsn        | 2D/AB269AB8     -- 客户端已经刷盘的消息坐标(不会丢失)replay_lsn       | 2D/AB269AB8     -- 客户端已经应用的消息坐标(已经生效)write_lag        |flush_lag        |replay_lag       |sync_priority    | 0sync_state       | async
postgres=# table pg_replication_slots; -- 查看当前复制槽-[ RECORD 1 ]-------+------------slot_name | testplugin | decoder_rawslot_type | logicaldatoid | 13382database | postgrestemporary | factive | tactive_pid | 14082xmin |catalog_xmin | 1371restart_lsn | 2D/AB269A80 -- 下次客户端重连时将从这里开始重放confirmed_flush_lsn | 2D/AB269AB8 -- 客户端确认完成的消息进度
复制代码

局限性

想要在生产环境中使用 CDC,还需要考虑一些其他的问题。略有遗憾的是,在 PostgreSQL CDC 的天空上,还飘着两朵小乌云。

完备性

就目前而言,PostgreSQL 的逻辑解码只提供了以下几个钩子:


LogicalDecodeStartupCB startup_cb;LogicalDecodeBeginCB begin_cb;LogicalDecodeChangeCB change_cb;LogicalDecodeTruncateCB truncate_cb;LogicalDecodeCommitCB commit_cb;LogicalDecodeMessageCB message_cb;LogicalDecodeFilterByOriginCB filter_by_origin_cb;LogicalDecodeShutdownCB shutdown_cb;
复制代码


其中比较重要,也是必须提供的是三个回调函数:begin:事务开始,change:行级别增删改事件,commit:事务提交 。遗憾的是,并不是所有的事件都有相应的钩子,例如数据库的模式变更,Sequence 的取值变化,以及特殊的大对象操作。


通常来说,这并不是一个大问题,因为用户感兴趣的往往只是表记录而不是表结构的增删改。而且,如果使用诸如 JSON,Avro 等灵活格式作为解码目标格式,即使表结构发生变化,也不会有什么大问题。


但是尝试从目前的变更事件流生成完备的 UNDO Log 是不可能的,因为目前模式的变更 DDL 并不会记录在逻辑解码的输出中。好消息是未来会有越来越多的钩子与支持,因此这个问题是可解的。

同步提交

需要注意的一点是,有一些输出插件会无视 Begin 与 Commit 消息。这两条消息本身也是数据库变更日志的一部分,如果输出插件忽略了这些消息,那么 CDC 客户端在汇报消费进度时就可能会出现偏差(落后一条消息的偏移量)。在一些边界条件下可能会触发一些问题:例如写入极少的数据库启用同步提交时,主库迟迟等不到从库确认最后的 Commit 消息而卡住)

故障切换

理想很美好,现实很骨感。当一切正常时,CDC 工作流工作的很好。但当数据库出现故障,或者出现故障转移时,事情就变得比较棘手了。

恰好一次保证

另外一个使用 PostgreSQL CDC 的问题是消息队列中经典的恰好一次问题。


PostgreSQL 的逻辑复制实际上提供的是至少一次保证,因为消费者偏移量的值会在检查点的时候保存。如果 PostgreSQL 主库宕机,那么重新发送变更事件的起点,不一定恰好等于上次订阅者已经消费的位置。因此有可能会发送重复的消息。


解决方法是:逻辑复制的消费者也需要记录自己的消费者偏移量,以便跳过重复的消息,实现真正的恰好一次 消息传达保证。这并不是一个真正的问题,只是任何试图自行实现 CDC 客户端的人都应当注意这一点。

Failover Slot

对目前 PostgreSQL 的 CDC 来说,Failover Slot 是最大的难点与痛点。逻辑复制依赖复制槽,因为复制槽持有着消费者的状态,记录着消费者的消费进度,因而数据库不会将消费者还没处理的消息清理掉。


但以目前的实现而言,复制槽只能用在主库上,且复制槽本身并不会被复制到从库上。因此当主库进行 Failover 时,消费者偏移量就会丢失。如果在新的主库承接任何写入之前没有重新建好逻辑复制槽,就有可能会丢失一些数据。对于非常严格的场景,使用这个功能时仍然需要谨慎。


这个问题计划将于下一个大版本(13)解决,Failover Slot 的 Patch 计划于版本 13(2020)年合入主线版本。


在那之前,如果希望在生产中使用 CDC,那么务必要针对故障切换进行充分地测试。例如使用 CDC 的情况下,Failover 的操作就需要有所变更:核心思想是运维与 DBA 必须手工完成复制槽的复制工作。在 Failover 前可以在原主库上启用同步提交,暂停写入流量并在新主库上使用脚本复制复制原主库的槽,并在新主库上创建同样的复制槽,从而手工完成复制槽的 Failover。对于紧急故障切换,即原主库无法访问,需要立即切换的情况,也可以在事后使用 PITR 重新将缺失的变更恢复出来。


小结一下:CDC 的功能机制已经达到了生产应用的要求,但可靠性的机制还略有欠缺,这个问题可以等待下一个主线版本,或通过审慎地手工操作解决,当然激进的用户也可以自行拉取该补丁提前尝鲜。


作者介绍:


冯若航,PostgreSQL DBA,全栈工程师,架构师,曾任职于苹果,探探,阿里巴巴。PostgreSQL 传教士,译著有《PostgreSQL 指南 内幕探索》与《设计数据密集型应用》。


2019-09-15 16:316361

评论

发布
暂无评论
发现更多内容

海外直播专线:打通TikTok直播的畅通通道

Ogcloud

海外直播专线 Tik Tok直播 Tik Tok直播网络

共话 AI for Science | 中国自然资源航空物探遥感中心于峻川:“AI+遥感”技术地学应用实践与展望

ModelWhale

人工智能 机器学习 深度学习 AI4S

如何优雅的对ILogger进行扩展并实现日志分类及追踪

多态丶

netcore 扩展 logger dotnetcore 结构化日志

MetaImage for Mac(图像元数据编辑器)v2.6.3中文激活版

iMac小白

getIRC-IRC Client for Mac( IRC 聊天客户端工具) v1.5直装版下载

iMac小白

华为产品创新经验,帮你成为更好的产品创新者

华为云PaaS服务小智

学习 华为云

低代码与小程序开发:简化创新,加速应用开发

EquatorCoco

小程序 低代码 程序开发

Atlassian版本选择趋势是上云还是本地部署?全面分析两个版本的特性

龙智—DevSecOps解决方案

DevSecOps Atlassian

Alarm Clock Pro for mac(闹钟和时间管理工具) v15.6激活版下载

iMac小白

海外云手机助力企业拓展海外市场

Ogcloud

云手机 海外云手机

提升源代码安全性的C#和Java深度混淆工具——IpaGuard

Navicat Premium 16 for Mac(数据库管理软件)v16.3.5中文激活版

iMac小白

Linguist for Mac(mac菜单栏语言翻译工具)v3.2激活版下载

iMac小白

从源码分析 MySQL 身份验证插件的实现细节

快乐非自愿限量之名

MySQL 数据库 sql 源码

解锁 AI 潜力 | 使用 GreptimeAI 深入观测 OpenAI 行为和用量

Greptime 格睿科技

数据库 LLM LLMOps

软件测试/测试开发/全日制/测试管理丨App 自动化测试的价值与体系

测试人

软件测试

JavaFx项目至安装程序

alexgaoyh

JavaFx exe4j 桌面应用 Inno Setup Compiler jre运行环境

PaaS服务的零代码开发平台——JNPF

这我可不懂

软件开发 低代码 JNPF

程序员一定要知道的限流大法:令牌桶算法

不在线第一只蜗牛

程序员 高并发 限流

Boxy SVG for Mac(矢量图编辑器)v4.21.1免激活版

iMac小白

EzyCal for Mac(日历管理和提醒工具)v2.3激活版

iMac小白

Archicad 27 for Mac(3D建模软件)v27.1.1 (4030)激活版

iMac小白

拼多多根据ID取商品详情原数据 API 实现实时数据获取的完整指南

Noah

QuickLinks for Mac(菜单栏快捷命令)v3.2激活版

iMac小白

永不停止,永远在路上!MIAOYUN 2023年度回顾

MIAOYUN

2023年度回顾 2023年终总结 年度关键词 年度成绩单

京东商品详情API实现实时数据获取的Java代码示例

Noah

共话 AI for Science | 解放军总医院医学创新研究部刘晓莉:基于数据和知识驱动的临床预测模型的构建

ModelWhale

人工智能 机器学习 深度学习 预测模型 AI4S

PullTube for Mac(在线视频下载器)v1.8.5.23中文激活版

iMac小白

Snagit for mac(最强大的屏幕截图软件)v2023.2.6中文版下载

iMac小白

Solidity之旅(十八)内联汇编 [inline assembly]

BSN研习社

软件测试开发/全日制/测试管理丨Web、App 测试不同场景定位方式

测试人

软件测试

PostgreSQL 变更事件捕获 (CDC)_数据库_冯若航_InfoQ精选文章