《HarmonyOS:领航者说》技术公开课来啦,大咖分享、实战解码,不容错过 了解详情
写点什么

分析 Apache Kafka 扩展集群:WAN 中断、故障场景和 DR 策略

作者:Srikanth Daggumalli, Nishchai Jayanna Manjula

  • 2025-07-14
    北京
  • 本文字数:10622 字

    阅读完需:约 35 分钟

大小:3.72M时长:00:00
分析Apache Kafka扩展集群:WAN中断、故障场景和DR策略

核心要点

  • 在企业内部环境中部署的 Apache Kafka Stretch 集群存在较高的服务不可用风险,尤其在广域网(WAN)中断时,常导致脑裂(split-brain)或脑死亡(brain-dead)的场景,并可能因恢复时间目标(RTO)和恢复点目标(RPO)恶化而违反服务级别协议(SLA)。

  • 对 Kafka 环境进行主动监控以了解跨 broker 的数据偏斜至关重要,单个节点上的不均衡数据负载可能导致 stretch 集群的故障。

  • 升级过程或糟糕的安全措施会导致 broker 非正常关闭,这可能会使 Kafka 服务不可用,导致数据丢失。

  • 有三种流行且广泛使用的 Kafka 灾难恢复策略,每种策略都存在其挑战、复杂性和陷阱。

  • Kafka Mirror Maker 2 灾难恢复配置中的复制延迟(Δ)可能会导致消息丢失和数据不一致。

 

Apache Kafka 是一个人们熟知的发布-订阅分布式系统,它在各个行业中得到了广泛使用,主要用于日志分析、可观测性、事件驱动架构和实时流处理等使用场景。其分布式特性使其成为现代流处理架构的关键组成部分基石,它提供了许多集成选项,并支持近实时或实时的延迟要求。

 

如今,Kafka 已被很多主要的公司作为服务来进行提供,包括 Confluent Kafka 以及云服务,如Confluent CloudAWS Managed Streaming KafkaGoogle Cloud Managed Service for Apache KafkaAzure Event Hub for Apache Kafka等。此外,超过十万家公司部署了 Kafka,包括财富 100 强在内的各个行业领域,如企业、金融、医疗保健、汽车、初创企业、独立软件供应商和零售部门。

 

数据的价值会随着时间的推移而降低。许多企业现在都在时间上进行竞争,需要实时数据处理,以毫秒级响应来支持关键任务型的应用程序。金融服务、电子商务、物联网和其他对延迟敏感的行业需要高可用性和弹性架构,这些架构能够在不影响业务连续性的情况下承受基础设施故障。

 

在多个地理位置运营的公司需要提供无缝故障转移、数据一致性和灾难恢复(disaster recovery,DR)能力的解决方案,同时最小化运维的复杂性和成本。公司经常考虑使用的一种通用架构模式是广域网(WAN)上的跨多个数据中心位置的单 Kafka 集群,这被称为Stretch集群。公司通常考虑采用这种模式实现灾难恢复(DR)高可用性(high availability,HA)

 

理论上,Stretch 集群可以提供跨区域的数据冗余,并在区域性故障事件中实现数据丢失的最小化。然而,这种方法由于 Kafka 的固有特性以及在多区域架构中对网络延迟一致性分区容错的依赖,带来了多项挑战和权衡。在本文中,我们将重点关注 Stretch 集群架构模式对 DR 或 HA 相关的影响和考虑。

 

我们已经执行了如下的测试,并且记录了集群的行为。

环境详情

区域

伦敦、法兰克福

Kafka分发版本

Apache Kafka

Kafka版本

3.6.2

Zookeeper

3.8.2

操作系统

Linux

高层的环境架构视图

以下是跨伦敦和法兰克福区域的单个 Stretch 集群架构的高层视图,其中包含:

  • 四个 Kafka broker,实际数据存储在这里。

  • 四个 Zookeeper 节点(采用三节点而不是四节点的设置也可以正常工作,但为了在两个区域中模仿真实的环境,我们设置了四个 Zookeeper 节点)

  • Zookeeper 遵循 [N/2] + 1 规则以确定 quorum。在本例,Zookeeper quorum 将是[4/2] + 1 = 2 + 1 = 3。

  • 这些区域之间的网络延迟约为 15 毫秒。

  • 多个生产者(1 到 n)和消费者(1 到 n)从世界各地的不同区域生产和消费此集群中的数据。

Kafka Broker 的硬件配置

硬盘大小

10 TB

内存

120 GB

CPU

16 Core

磁盘设置

RAID 0

Kafka Broker 的配置

  • 复制系数(replication factor)设置为 4

  • 数据保留(即日志保留)期限为 7 天

  • 允许自动创建主题

  • 最小同步复制(in-sync replication,ISR)设置为 3

  • 每个主题的分区数为 10

  • 其他配置细节

  • Acks = all

  • max.in.flight.request.per.connection=1

  • compression.type=lz4

  • batch.size=16384

  • buffer.memory=67108864

  • auto.offset.reset=earliest

  • send.buffer.bytes=524288

  • receive.buffer.bytes=131072

  • num.replica.fetchers=4

  • num.network.threads=12

  • num.io.threads=32


生产者和消费者

生产者

在本用例中,我们使用了一个 Java 编写的生产者,它持续性地生成预定义的每秒事务数(Transactions Per Second,TPS),可以通过属性文件对其进行控制。使用 Kafka 性能测试 API 的示例代码片段如下所示:

******** Start of Producer code snippet *******
void performAction(int topicN){ try { ProcessBuilder processBuilder = new ProcessBuilder(); Properties prop = new Properties(); InputStream input = null; input = new FileInputStream("config.properties"); prop.load(input);
SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS"); sdf.setTimeZone(TimeZone.getTimeZone("America/New_York")); String startTime = sdf.format(new Date()); System.out.println("Start time ---> "+startTime+" topic " +topicN);

String command = "/home/opc/kafka/bin/kafka-producer-perf-test --producer-props bootstrap.servers=x.x.x.x:9092"+ " --topic "+topicN+ " --num-records "+ prop.getProperty("numOfRecords") + " --record-size "+ prop.getProperty("recordSize") + " --throughput "+ prop.getProperty("throughputRate") + " --producer.config "+ "/home/opc/kafka/bin/prod.config";
//processBuilder.command("cmd.exe", "/c", "dir C:\\Users\\admin"); processBuilder.command("bash", "-c", command);
Process process = processBuilder.start(); //StringBuilder output = new StringBuilder(); BufferedReader reader = new BufferedReader( new InputStreamReader(process.getInputStream())); String line; while ((line = reader.readLine()) != null) { //output.append(line + "\n"); if(line!=null && line.contains("99.9th.")) { break; } }
int exitVal = process.waitFor(); if (exitVal == 0) { System.out.println("Success!"); String endTime = sdf.format(new Date()); //send to opensearch for tracking purpose - optional step pushToIndex(line,startTime, endTime, prop.getProperty("indexname")); //System.out.println(output); //System.exit(0); } else { System.out.println("Something unexpected happend!!!"); }
} catch (IOException e) { e.printStackTrace(); } catch(Exception e){ e.printStackTrace(); } }
********** End of producer code snippet **************
****** Stat of Producer properties file ***** numOfRecords=70000recordSize=4000throughputRate=20topicstart=1topicend=100****** End of Producer properties file *****
复制代码

消费者

在本用例中,我们使用了 Java 编写了消费者,它们可以持续消费每秒事务数(TPS),这可以通过属性文件进行控制。

***** Start of consumer code snippet *******     void performAction(int topicN){        try {            ProcessBuilder processBuilder = new ProcessBuilder();            Properties prop = new Properties();            InputStream input = null;            input = new FileInputStream("consumer.properties");            prop.load(input);
SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS"); sdf.setTimeZone(TimeZone.getTimeZone("America/New_York")); String startTime = sdf.format(new Date()); System.out.println("Start time ---> "+startTime+" topic " +topicN);
String command =null; if( prop.getProperty("latest").equalsIgnoreCase("no")) { command = "/home/opc/kafka/bin/kafka-consumer-perf-test --broker-list=x.x.x.x:9092"+ " --topic "+topicN+ " --messages "+ prop.getProperty("numOfRecords") + // " --group "+ prop.getProperty("groupid") + " --timeout "+ prop.getProperty("timeout")+ " --consumer.config "+"/home/opc/kafka/bin/cons.config";}else{
command = "/home/opc/kafka/bin/kafka-consumer-perf-test --broker-list=x.x.x.x:9092"+" --topic "+topicN+ " --messages "+ prop.getProperty("numOfRecords") + // " --group "+ prop.getProperty("groupid") + " --timeout "+ prop.getProperty("timeout")+ " --consumer.config "+"/home/opc/kafka/bin/cons.config"+ " --from-latest"; }
System.out.println("command is ---> " +command); //processBuilder.command("cmd.exe", "/c", "dir C:\\Users\\admin"); processBuilder.command("bash", "-c", command);
Process process = processBuilder.start(); StringBuilder output = new StringBuilder(); BufferedReader reader = new BufferedReader( new InputStreamReader(process.getInputStream())); String line; while ((line = reader.readLine()) != null) { // output.append(line + "\n"+"test"); //if(line.contains(":") && line.contains("-")) { if (line.contains(":") && line.contains("-") && !line.contains("WARNING:")) { break; } }
int exitVal = process.waitFor(); if (exitVal == 0) { System.out.println("Success!"); //optional step - send data to opensearch pushToIndex(line, prop.getProperty("indexname"),topicN); System.out.println(output); //System.exit(0); } else { System.out.println("Something unexpected happend!!!"); }
} catch (IOException e) { e.printStackTrace(); } catch(Exception e){ e.printStackTrace(); } }
***** End of consumer code snippet *******
*****Start of Consumer properties snippet ****
numOfRecords=70000topicstart=1topicend=100groupid=cgg1reportingIntervalms=10000fetchThreads=1latest=noprocessingthreads=1timeout=60000
***** End of consumer properties snippet ****
复制代码

CAP 理论

在深入讨论和场景执行之前,了解分布式系统的基本算法至关重要。这些基础知识将帮助你更好地将 WAN 中断与系统行为的影响联系起来。

 

CAP理论,即一致性(Consistency)、可用性(Availability)和分区容错性(Partition tolerance),适用于所有的分布式系统,如 Kafka、Hadoop、Elasticsearch 等,其中数据分布在多个节点中:

  • 启用并行数据处理

  • 维护数据和服务的高可用性

  • 支持水平或垂直扩展的需求

一致性(C)

每次读取都会获得最新的写入,或者遇到错误。

Kafka遵循最终一致性,数据被摄入到一个节点后,最终会在其他节点间同步。读取操作发生在领导者节点,因此副本可能会落后。

可用性(A)

即使一些节点失败,每个请求也都会得到响应。

Kafka通过复制系数、min.insync.replicas和acks确保高可用性。只要领导者可用,Kafka就会继续运行。

分区容错性(P)

系统即便存在网络问题,但仍然保持工作。

即使一些节点断开连接,Kafka会选举新的领导者并继续处理。

Kafka 是一个 AP 系统,它优先考虑可用性分区容错性,而一致性是最终性的,可以通过设置进行调整。

 

现在,让我们进入到具体的场景中。

Stretch 集群的失败场景

在深入介绍具体的场景之前,我们先了解 Kafka 内部的关键组件和术语。

  • Broker 代表数据节点,所有数据都分布在这里,采用副本以实现数据的高可用性。

  • 控制器(Controller)是 Kafka 中一个关键组件,负责维护集群的元数据,包括主题、分区、副本和 broker 的相关信息。同时执行管理任务。可以将其视为 Kafka 集群的“大脑”。

  • Zookeeper quorum 是一组节点(通常部署在专用节点上),作为协调服务帮助管理控制器选举、broker 注册、broker 发现、集群成员资格验证、分区领导者选举、主题配置、访问控制列表(ACL)、消费者组管理和偏移量管理。

  • 主题(Topic)是数据的逻辑结构,所有相关数据都会发布到这些主题上。例如,所有网络日志都发布到“Network_logs”主题,应用程序日志发布到“Application_logs”主题。

  • 分区(Partition)是支持主题内可扩展性和并行性的基本单位或构建块。当创建一个主题时,它可以有一个或多个分区,所有数据都按顺序发布在这些分区中。

  • 偏移量(Offset)是分配给主题分区中每条消息的唯一标识符,它本质上是一个序列号,指示消息在分区中的位置。

  • 生产者(Producer)是发布记录(消息)到 Kafka 主题的客户端应用程序。

  • 消费者(Consumer)是消费 Kafka 主题中记录(消息)的客户端应用程序。

 

场景 1:WAN 中断,活跃控制器为“0”,也称为脑死亡的场景

场景

WAN中断,活跃控制器为“0”

场景描述

正如前几节所讨论的,在跨地理位置的分布式网络环境中,可能会发生网络服务的中断,因为没有服务能保证100%的可用性。

此场景重点关注两个区域之间的WAN中断,导致Kafka服务不可用,集群中没有活跃的控制器,即使等待数小时也无法自我恢复。

执行步骤

  1. Kafka集群(所有broker和Zookeeper quorum)应根据环境章节中所述的配置启动并运行
  2. 在broker平衡状态下生成和消费事件(此步骤是可选的,但模拟真实的使用场景)
  3. 断开/中断区域之间的WAN服务
  4. 观察集群的行为。通过broker主机CLI和ZK CLI进行检查。如果你使用的是Confluent,可以使用Confluent中心,如果是AWS Cloud提供的托管服务,那么可以检查CloudWatch,其他产品与之类似
    1. ZK quorum的可用性
    2. 作为集群成员的broker的可用性
    3. 活跃控制器的数量
    4. 生产者和消费者的进度
    5. 未复制的分区等。
  5. 重新建立区域之间的WAN服务并观察集群的行为。

预期行为

  1. 在稳定状态下,Kafka集群应该是可用的,具有
    1. 4个broker
    2. ZK quorum为3
    3. 活跃控制器数量为1
    4. 生产者和消费者应该能够从主题生产和获取事件
  2. 在WAN服务中断时,
    1. Kafka集群应该不可用
    2. ZK quorum 3将中断
    3. 活跃控制器为1或零
    4. 生产者和消费者应该中断,产生回压或超时。
  3. 重新建立WAN服务
    1. ZK quorum 3应该重建
    2. Kafka集群应该可用,有4个broker
    3. 活跃控制器数量应该是1
    4. 生产者和消费者应该继续/恢复

实际的/观察到的行为

Kafka不可用,并且在WAN服务中断和重新建立后无法自行恢复,显示活跃控制器为“0”。

  • 报告的活跃broker为零
  • 活跃控制器数量为零
  • 在WAN服务恢复时,ZK quorum 3形成,并且在WAN中断时将quorum断开
  • 在WAN服务恢复时,所有broker都显示在ZK集群成员中,而在WAN中断期间只显示两个broker。
  • 生产者和消费者完全中断并超时。

根本原因分析(Root Cause Analysis,RCA)

这是一个“脑死亡”的场景。在WAN中断时,一个由4节点组成的集群变成了2个独立的集群,每个集群有2个节点。

  • 现有的单个Zookeeper quorum变成了两个quorum,即每个站点一个。但是,每个quorum都没有选举新的控制器,导致在WAN重新建立时出现零控制器的情况。
  • 想象一下,两个厨师在厨房里准备一道菜。每个厨师都假设另一个厨师已经加了盐,但最后,菜里最终没有任何人加盐。
  • 从日志可以观察到,控制器将异常从一个broker转移到另一个broker,但日志中没有报告退出或挂起

Controller exceptions:

controller.log:org.apache.kafka.common.errors.ControllerMovedException: Controller moved to another broker. Aborting

controller.log:java.io.IOException: Client was shutdown before response was read

controller.log:java.lang.InterruptedException

  • 从ZooKeeper(ZK)CLI中,还观察到在集群中“没有broker声称是控制器”,集群未能正确响应状态变化,包括主题或分区创建以及broker故障。

ERROR Unexpected exception causing shutdown while sock still open (org.apache.zookeeper.server.quorum.LearnerHandler)

java.lang.Exception: shutdown Leader! reason: Not sufficient followers synced, only synced with sids: [ 2 ]

 

ERROR Exception while listening (org.apache.zookeeper.server.quorum.QuorumCnxManager)

参考

  • 可以通过修改或删除路由表来实现WAN禁用。
  • ZK命令,参考ZK命令部分。

解决方案/补救措施

因为没有broker声称是控制器,所以需要重新启动所有broker。

WAN 中断

WAN disruption can be done by deleting or modifying route tables.
复制代码

警告:删除路由表可能会中断相关子网的所有流量。相反,应该考虑修改或分离路由表。

停止防火墙

你可能需要关闭防火墙:

查看防火墙状态:

systemctl status firewalld
复制代码


关闭防火墙:

service firewalld stop
复制代码

ZK 命令列表

ZK 服务器启动:

bin/zookeeper-server-start etc/kafka/zookeeper.properties
复制代码

ZK 服务器关闭:

zookeeper-server-stop
复制代码

ZK Shell 命令:

bin/zookeeper-shell.sh <zookeeper host>:2181
复制代码

活跃控制器检查:

get /controller or ls /controller
复制代码

Broker 列表:

/home/opc/kafka/bin/zookeeper-shell kafkabrokeraddress:2181 <<<"ls /brokers/ids"
复制代码

 

检查集群中的控制器和 broker 的替代方法。从 kafka 3.7.x 开始可以使用

bin/kafka-metadata-shell.sh --bootstrap-server <KAFKA_BROKER>:9092 --describe-cluster
复制代码

场景 2:WAN 中断,活跃控制器为“2”,也称为脑裂场景

场景

WAN中断,活跃控制器为“2”

场景描述

正如前几节所讨论的,在跨地理位置的分布式网络环境中,可能会发生网络服务的中断,因为没有服务能保证100%的可用性。此场景重点关注两个区域之间的WAN中断,导致Kafka服务不可用,活动控制器为“2”,即使等待数小时也无法自我恢复。

执行步骤

  1. Kafka集群(所有broker和Zookeeper quorum)应根据环境章节中所述的配置启动并运行
  2. 在broker平衡状态下生成和消费事件(此步骤是可选的)
  3. 断开/中断区域之间的WAN服务
  4. 观察集群的行为。通过broker主机CLI和ZK CLI进行检查。如果你使用的是Confluent,可以使用Confluent中心,如果是AWS Cloud提供的托管服务,那么可以检查CloudWatch。
    1. ZK quorum的可用性
    2. 作为集群成员的Broker的可用性
    3. 活动控制器的数量
    4. 生产者和消费者的进度
    5. 未复制的分区等。
  5. 重新建立区域之间的WAN服务并观察集群的行为。

预期行为

  1. 在稳定状态下,Kafka集群应可用,具有
    1. 4个broker
    2. ZK quorum为3
    3. 活跃控制器为1
    4. 生产者和消费者应该能够从主题生产和获取事件
  2. 在WAN服务中断时,
    1. Kafka集群应该不可用
    2. ZK quorum 3将中断
    3. 活跃控制器为1或零
    4. 生产者和消费者应该中断,产生回压或超时。
  3. 重新建立WAN服务
    1. ZK quorum 3应该重建
    2. Kafka集群应该可用,有4个broker
    3. 活跃控制器应该是1
    4. 生产者和消费者应该继续/恢复

实际的/观察到的行为

Kafka不可用,并且在WAN服务中断和重新建立后无法自行恢复,显示活跃控制器为“2”。

  • 报告的活跃broker为零
  • 活跃控制器数量为2
  • 在WAN服务恢复时,ZK quorum 3形成,并且在WAN中断时将quorum断开
  • 在WAN服务恢复时,所有broker都显示在ZK集群成员中,而在WAN中断期间只显示两个broker。
  • 生产者和消费者完全中断并超时,NETWORK_EXCEPTIONs
  • 生产者的请求失败,异常为 NOT_LEADER_FOR_PARTITIONS。

根本原因分析(RCA)

  • 这是一个脑裂场景。在WAN中断时,一个4节点集群变成了两个独立的集群,每个集群由2个节点组成。
  • 此外,一个现有的单Zookeeper quorum变成了两个quorums,即每个站点一个。结果,每个quorum将选举一个新的控制器,导致产生了两个控制器。
  • 在WAN重新建立后,我们看到了4节点的集群具有2个控制器。想象一下,两个副驾驶在无线电丢失后从不同的驾驶舱驾驶同一架飞机。两者都认为对方已经离开并接管飞行,这种冲突的行动会使系统崩溃。
  • 从ZooKeeper(ZK)CLI也观察到两个broker声称是集群中的控制器;集群未能正确响应状态变化,包括主题或分区创建以及broker故障。

引用

  • 可以通过修改或删除路由表来实现WAN禁用。
  • ZK命令

解决方案/补救措施

重启两个控制器

场景 3:Broker 磁盘已满,导致相应的 Broker 进程崩溃,没有活跃控制器

场景

Broker磁盘已满,导致相应的broker进程崩溃,没有活跃控制器或“0”活动控制器。

场景描述

在一个稳定的Kafka集群上,这意味着所有broker都在运行,生产者和消费者都在产生和消费事件。由于数据偏斜(data skew)即数据在broker之间的不均匀或不平衡分布,导致其中四个broker中的某一个磁盘已满,从而导致broker进程突然崩溃,并将崩溃级联到剩余的broker。这会导致Kafka集群不可用,因为活跃控制器的数量变成了“0”。

执行步骤

  1. Kafka集群(所有broker和Zookeeper quorum)应根据环境章节中所述的配置启动并运行
  2. 在broker平衡状态下生成和消费事件
  3. 四个broker中的某一个磁盘已满,从而导致broker进程突然崩溃
  4. 观察集群的行为。通过broker主机CLI和ZK CLI进行检查。如果你使用的是Confluent,可以使用Confluent中心,如果是AWS Cloud提供的托管服务,那么可以检查CloudWatch。
    1. ZK quorum的可用性
    2. 作为集群成员的Broker的可用性
    3. 活动控制器的数量
    4. 生产者和消费者的进度
    5. 未复制的分区等。

预期行为

  1. 在稳定状态下,Kafka集群应可用,具有
    1. 4个broker
    2. ZK quorum为3
    3. 活跃控制器为1
    4. 生产者和消费者应该能够从主题生产和获取事件
  2. 当broker磁盘已满时,
    1. 磁盘错误应该记录在日志中。
    2. Kafka集群应该不可用,只有一个broker应该显示为不可用或不在集群成员之外
    3. ZK quorum不应该失败
    4. 活动控制器可以为零(如果控制器节点与死亡broker相同)并将控制器移动到另一个可用的broker。
    5. 集群应该报告由于一个broker不可用而导致的未复制分区。
    6. 生产者和消费者应该被中断,产生回压,或超时。

实际的/观察到的行为

Kafka不可用,并且在自己的能力范围内无法恢复,显示活动控制器为“0”

  • 报告的活跃broker为零
  • 活跃控制器数量为零
  • 对Zookeeper quorum没有影响
  • 生产者和消费者完全中断并超时

根本原因分析(RCA)

从日志中,观察到与磁盘相关的错误和异常

logs/state-change.log:102362: ERROR [Broker id=1] Skipped the become-follower state change with correlation id 331 from controller 1 epoch 1 for partition topic1-9 (last update controller epoch 1) with leader 5 since the replica for the partition is offline due to disk error org.apache.kafka.common.errors.KafkaStorageException: Error while creating log for topic1-9 in dir /kafka/kafka-logs (state.change.logger)

日志显示控制器将异常从一个broker移动到另一个broker,但日志中没有报告退出或挂起

Controller exceptions: controller.log:org.apache.kafka.common.errors.ControllerMovedException: Controller moved to another broker. Aborting controller.log:java.io.IOException: Client was shutdown before response was read controller.log:java.lang.InterruptedException

控制器为“0”的行为等同于场景1中解释的脑死亡场景。

引用

  • ZK活跃控制器命令
  • ZK broker成员命令

解决方案/补救措施

  • 监控Kafka集群至关重要,需要使用适当的指标,如CPU、磁盘、内存、Java堆等。磁盘达到80%或更多时,应该扩展集群。
  • 因为没有broker声明为控制器,所以需要重新启动所有broker。

场景 4:Kafka 进程杀死后索引损坏

场景

Kafka进程杀死后索引损坏

场景描述

杀死broker和ZK进程(不受控制的关闭可以与机器突然重启相类比)并重新启动broker,这会导致索引损坏,即使等待数小时,重建索引也无法工作。

这个场景类似于在环境升级期间的非优雅关闭,或者是糟糕的安全状况,即未经授权的人终止了服务。

执行步骤

  1. Kafka集群(所有broker和Zookeeper quorum)应根据环境章节中所述的配置启动并运行
  2. 在broker平衡状态下生成和消费事件
  3. 杀死broker和ZK进程,并重启进程
  4. 观察集群的行为。通过broker主机CLI和ZK CLI进行检查。如果你使用的是Confluent,可以使用Confluent中心,如果是AWS Cloud提供的托管服务,那么可以检查CloudWatch。
    1. ZK quorum的可用性
    2. 作为集群成员的Broker的可用性
    3. 活动控制器的数量
    4. 生产者和消费者的进度
    5. 未复制的分区等。

预期行为

  1. 在稳定状态下,Kafka集群应可用,具有
    1. 4个broker
    2. ZK quorum为3
    3. 活跃控制器为1
    4. 生产者和消费者应该能够从主题生产和获取事件
  2. 杀死Kafka进程(kill -9),即在所有4个节点上杀死broker和ZK进程并重新启动进程
    1. ZK quorum应该能够形成
    2. 活跃控制器数量为“1”
    3. 如果消息没有刷新到磁盘,可能会丢失在途消息
    4. 可能会导致索引损坏,但broker可以自行重建损坏的索引,无需任何手动工作
    5. 在重建损坏的索引后,Kafka集群应该是可用的
    6. 由于索引损坏,集群可能会显示未复制的分区
    7. 生产者和消费者将获得异常或错误,无法继续执行它们的工作

实际的/观察到的行为

Kafka不可用,且无法自行恢复。

  • 报告的活跃broker为“4”
  • 活跃控制器数量为“1”
  • 对Zookeeper quorum没有影响
  • 生产者和消费者完全中断并超时

根本原因分析(RCA

从日志中,可以看到分区“index corrupted”和“'rebuilding indices logs”的内容。但重建索引没有奏效,也没有显示任何相关的进度日志。即使在1小时后,集群仍然处于不可用状态。

WARN [Log partition=topic1-13, dir=/kafka/new/kafka-logs] Found a corrupted index file corresponding to log file /kafka/new/kafka-logs/topic1-13/00000000000000000000.log due to Corrupt time index found, time index file (/kafka/new/kafka-logs/topic1-13/00000000000000000000.timeindex) has non-zero size but the last timestamp is 0 which is less than the first timestamp 1553657637686}, recovering segment and rebuilding index files... (kafka.log.Log)

此外,建议进行优雅的关闭,而不是使用杀死进程或进行突然关闭,以便通过维护元数据信息并提交偏移量,将Kafka本地缓存中的数据刷新到磁盘。

引用

解决方案/补救措施

如果Kafka无法自行重建所有索引,手动删除所有索引文件并重新启动所有broker将解决问题。

关于 WAN 中断故障场景的结论

如果要在公司内部署 stretch 集群,那么需要深入了解故障的场景,特别是在网络中断期间。与云环境不同,公司内部署可能缺乏高可用的网络基础设施、容错机制或专用光纤线路,使它们更容易出现故障。在这种情况下,如果网络连接被中断,Kafka 集群可能会经历停机

 

而云服务提供商在区域和数据中心之间提供了高带宽、低延迟的网络,通过完全冗余的专用光纤连接。他们的托管 Kafka 服务旨在实现高可用性,通常建议跨多个区域部署以承受区域性故障。此外,这些服务还包含区域感知功能,确保 Kafka 数据复制发生在多个区域之间,而不是被限制在单个区域。

 

同样重要的是,要理解并强调在两个不同的地理位置部署的 stretch 集群上,通过 WAN 连接所造成的延迟影响。我们不能逃避物理定律,在我们的情况下,根据WonderNetwork的数据,伦敦和法兰克福之间的平均延迟是 14.88 毫秒,距离为 636 公里。因此,对于关键任务型的应用程序,需要通过测试来设置一个由延迟驱动的 stretch 集群,以确定数据是如何被复制和消费的。

 

通过了解这些差异,组织可以做出明智的决策,判断公司内 stretch 集群是否符合它们的可用性和弹性要求,或者云原生 Kafka 部署是否为更合适的替代方案。

灾难恢复策略

业务连续性计划(Business Continuity Plan,BCP)对于任何企业来说都是至关重要的,这可以维持其品牌和声誉。几乎所有公司都考虑高可用性(HA)和灾难恢复(DR)策略以满足他们的 BCP。以下是 Kafka 流行的 DR 策略:

  • 主备架构(Active – Standby,又称主动-被动,Active-passive)

  • 双活架构(Active – Active)

  • 备份和恢复 Backup and restore

 

在进一步深入研究 DR 策略之前,我们先了解一下以下架构模式中使用的 Kafka Mirror Maker 2.0。除此之外,还有 Confluent 和其他云服务提供的其他组件,如 Kafka Connect、Replicator 等,但它们不在本文讨论范围内。

 

Apache Kafka 中的DNS重定向(DNS Redirection)是一个跨集群复制的工具,它使用 Kafka Connect 框架在集群之间复制主题,支持双活主备架构。它提供了自动消费者群组同步偏移量转换故障转移的支持,可用于灾难恢复和多区域架构。

主备架构

这是一种流行的 DR 策略模式,将两个大小和配置完全相同的 Kafka 集群,部署在两个不同的地理区域或数据中心。在本例中,是伦敦和法兰克福地区。通常,地理位置的选择取决于地球不同的构造板块、公司或国家的合规性和法规要求以及其他因素。在给定时间点,其中只有一个集群是活跃的,接收并服务于客户。

 

如下图所示,Kafka 集群一(KC1)位于伦敦地区,Kafka 集群二(KC2)位于法兰克福地区,大小和配置相同。

 

所有生产者都在向 KC1(伦敦地区集群)生产数据,所有消费者都从同一集群消费数据。KC2(法兰克福地区集群)通过 Mirror Maker 从 KC1 集群接收数据,如图 1 所示。


图 1:Kafka 主备架构(也称为活动-被动)集群设置,需要 Mirror 角色

 

简单来说,我们可以将 Mirror Maker 视为生产者和消费者的组合,它从源集群 KC1(伦敦地区)消费主题,并产生数据到目标集群 KC2(法兰克福地区)。

 

在主/活跃集群 KC1(伦敦地区)发生灾难时,备用集群(法兰克福地区)将变得活跃,所有生产者和消费者的流量将重定向到备用集群。这可以通过在 Kafka 集群前的负载均衡器进行 DNS 重定向来实现。图 2 显示了这种情况。

 

图 2:Kafka 主备架构 - 备用集群变得活跃

 

当伦敦地区 KC1 集群变得活跃时,我们需要设置一个 Mirror Maker 实例,从法兰克福地区集群消费数据,并将其生成切回到伦敦地区 KC1 集群。这种情况在图 3 中进行了显示。

 

业务需要决定继续保持法兰克福地区(KC2)处于活跃状态,还是一旦数据完全同步/恢复到当前状态,就将伦敦地区集群(KC1)提升回主集群。在某些情况下,备用集群,即法兰克福地区集群(KC2),会继续像活跃集群一样运行,而伦敦地区集群(KC1)则成为备用集群。

 

需要注意的是,与双活架构相比,该架构的 RTO(Recovery Time Objective,恢复时间目标)和 RPO(Recovery Point Objective,恢复点目标)值较高。主备架构的成本是中等到高,因为我们需要在两个区域维护相同的 Kafka 集群。


图 3:Kafka 主备架构 - 备用集群数据同步到 KC1

主备架构的注意事项

 

Kafka Mirror Maker 复制延迟(Δ):

我们考虑这样一个场景,该情况可能非常罕见,我们完全丢失了所有集群,包括节点和磁盘等。其中,活跃 Kafka 集群(伦敦地区 - KC1)有“m”条消息,Mirror Maker 正在消费并产生消息到备用集群。由于网络延迟或消费者和生产者之间的处理确认,备用集群(即法兰克福地区 - KC2)落后并仅持有“n”条消息。这意味着偏差(Δ)是 m 减去 n。

Δ=m−n

其中:

  • m = 活跃 Kafka 集群的消息(伦敦)

  • n = 备用 Kafka 集群的消息(法兰克福)

由于这种复制延迟(Δ),将对关键任务型应用程序产生以下影响:

可能出现的消息丢失::

如果在备用集群赶上活跃集群之前发生故障转移,一些消息(Δ可能会丢失。

数据不一致:

依赖备用集群的消费者可能会处理不完整或过时的数据。

处理延迟::

依赖实时复制的应用程序可能会在数据可用性上经历延迟。

双活架构

我们可以通过双活架构克服复制延迟的问题。就像主备一样,我们将在伦敦和法兰克福地区部署相同的 Kafka 集群。

 

摄取流水线(ingestion pipeline)的生产者将给定时间内的所有数据写入两个集群。这也被称为双重写入。因此,两个集群的数据是同步的,如图 4 所示。

 

请注意,摄取流水线或生产者应该有能力支持双重写入。同样重要的是要注意,这些写入流水线应该是隔离的,以便一个集群的任何问题都不会影响其他流水线或造成回压和生产者延迟。例如,如果你的使用场景是日志分析或可观测性,那么可以考虑在摄取中使用 Logstash,并在单个或更多的 Logstash 实例中创建两个单独的流水线,它们将作为隔离的流水线。但是,在任何给定时间内,只有一个集群对消费者是活跃的。

 

图 4:双活架构或双重写入

在图 5 所示的情况下,如果一个集群出现问题,消费者需要通过 DNS Redirect 向进行重定向,RTO 和 RPO 或 SLA 接近零。


图 5:双活架构中某个集群不可用的场景

一旦伦敦集群可用并变得活跃,数据可以从法兰克福集群使用 Mirror Maker 同步回伦敦集群。如图 6 所示,消费者可以使用 DNS 重定向切换回伦敦集群。同样,配置消费者群组从他们离开的地方开始进行处理也很重要。

 

在这种架构中,在故障转移期间,配置消费者偏移量以从特定时间点读取消息非常重要,比如,从最后当前时间减去 15 分钟内的回复消息,或者在活跃集群之间设置一个 Mirror Maker,从伦敦地区集群“仅”读取消费者偏移的主题,并复制到法兰克福地区集群。在失败期间,可以使用source.auto.offset.reset=latest从法兰克福地区集群的最新偏移量读取数据。

 

如果消费者群组没有正确配置,可能会在下游系统中看到重复的消息。因此,设计下游处理重复记录非常重要。例如,如果可观测性的使用场景,并且下游是 OpenSearch,设计一个基于消息时间戳和其他参数(如会话 ID 等)的唯一 ID 是一个好习惯。这样,重复的消息将会覆盖现有的记录,从而保持只有一条记录。


图 6:双活架构集群通过 MirrorMaker 同步数据

双活架构 Kafka 中的挑战和复杂性

当同时向两个集群写入时,会出现消息排序方面的挑战,由于区域间的网络延迟,消息可能会以不同的顺序到达。这对于需要严格消息排序的应用程序来说可能会产生特殊的问题。因此,需要在数据处理时间或下游系统中进行处理。例如,在消息体中定义一个主键时间戳字段,并根据时间戳对消息进行排序。

 

在对两个不同集群进行双重写入时,可能会出现数据一致性问题。这需要强大的监控和对账流程,以确保跨集群的数据完整性。因为可能会出现数据成功写入一个集群但在另一个集群中失败的情况,这将导致数据不一致。

 

生产者复杂性是这种双活架构中的一个问题。生产者需要处理向两个集群的写入,并独立管理每个集群的故障,因此隔离每个流水线是非常重要的。这种架构可能会增加生产者应用程序的复杂性,并需要更多的资源来有效地管理双重写入。市场上也有一些代理或工具,如 Elastic Logstash,它们提供了开源的方案,以支持双流水线选项。

 

消费者群组管理是很复杂的。跨多个集群管理消费者偏移量可能是很具有挑战性的,特别是在故障转移的场景中,这可能导致消息重复。消费者应用程序或下游系统需要设计为能够处理重复消息或实现去重逻辑。

 

运维开销,运行双活集群需要复杂的监控工具,并显著增加运维成本。团队需要维护详细的运行手册,并定期进行灾难恢复演练,以确保平滑的故障转移过程。

 

网络延迟的考虑,跨区域网络延迟和带宽成本成为双活架构中的关键因素。区域间可靠的网络连接对于维护数据一致性和有效管理复制至关重要。

备份和恢复

与主备(AP)或双活(AA) DR 架构模式相比,备份和恢复是一种成本效益很高的架构模式。它适用于与 AA 或 AP 模式相比,具有更高 RTO 和 RPO 值的非关键型应用程序。

 

备份和恢复是一个成本效益较高的可选方案,因为我们只需要一个 Kafka 集群。如果 Kafka 集群临时不可用,那么在其可用时,可以从集中式存储库中重放/恢复数据到 Kafka 集群。在这个架构模式中,如图 7 所示,所有数据将被保存到像 Amazon S3 这样的持久化位置或其他数据湖中,当 Kafka 集群可用时,数据可以从这些位置恢复/重放到 Kafka 集群。通常来讲,我们也会看到使用 Terraform 模板一起构建的新 Kafka 集群环境,它们会构建新的 Kafka 集群并重放数据。

 

图 7:备份和恢复架构模式

Kafka 备份和恢复架构中的挑战和复杂性

恢复时间影响是一个主要的考虑因素,将大量数据恢复(即重放)到 Kafka 可能需要相当长的时间,这会导致更高的 RTO。这使得该方案只适用于能够容忍更长停机时间的应用程序。

 

数据一致性方面的挑战也是一个问题。当从备份存储(如 Amazon S3)恢复数据时,保持与原始集群完全相同的消息排序和分区可能是很具有挑战性的。需要特别注意确保在恢复期间的数据一致性。

 

备份性能开销是另外的考虑因素。定期备份到外部存储可能会影响生产集群的性能。备份过程需要进行仔细安排和资源管理,以最小化对生产工作负载的影响。

 

存储是关键。管理大量备份数据需要有效的存储生命周期策略和控制成本。定期清理旧备份和高效的存储利用策略是必不可少的。

 

恢复期间的协调是强制性要求的。恢复过程需要在备份偏移信息和实际消息之间进行仔细协调。缺少任何一个都可能导致在恢复期间丢失或重复消息。

关于 Kafka DR 策略的结论

正如我们之前探讨的,选择 DR 策略并不是一劳永逸的,它涉及到权衡。通常来讲,就是在业务需求和它能负担得起的东西之间找到正确的平衡。决策通常取决于如下几个因素。

 

SLA(例如,99.99%+的正常运行时间)是预先定义的正常运行时间和可用性的承诺。要求 99.99%正常运行时间的 SLA 每年只允许 52.56 分钟的停机时间。

 

RTO 指标用于定义系统或应用程序在故障后的最大可接受停机时间,以免造成不可接受的业务损害。例如,知识/内容/培训系统可以预期一个小时或更长时间的停机时间,因为它们不是关键任务。而对于银行应用程序,停机时间的接受度可能是零或几分钟。

 

RPO 指标用于定义在破坏性事件期间可接受的最大数据丢失量,以从最近一次备份以来的时间来度量。例如,一个可观测性/监控应用程序可以容忍丢失过去一小时的数据,而金融应用程序则不能容忍丢失任何一条交易记录。

 

相关成本各不相同。更高的可用性和更快的恢复通常意味着更高的价格。组织必须权衡他们对正常运行时间和数据保护的需求与它们所需的财务投资。

DR策略

RTO(停机时间容忍度)

RPO(数据丢失容忍度)

用例

成本

双活架构

接近零(秒)

接近零(秒)

关键任务应用程序(例如,银行、电子商务、股票交易)

主备架构

分钟级到小时级

接近零到分钟级

需要高可用性的企业应用程序

中到高(没有双写入流水线的成本)

备份和恢复

小时级到天级

小时级到天级

偶尔需要DR需求的非关键应用程序或成本敏感的应用程序。

参考资料:

 

原文链接:

Analyzing Apache Kafka Stretch Clusters: WAN Disruptions, Failure Scenarios, and DR Strategies

2025-07-14 10:031

评论

发布
暂无评论

Partisia Blockchain 生态首个zk跨链DEX现已上线

西柚子

Scroll生态项目Penpad,再获Presto Labs的投资

西柚子

多方资本看好Penpad,Presto Labs已进入投资者行列

BlockChain先知

有了这么多套件,为什么还需要APaaS

明道云

Scroll 生态项目 Penpad,再获 Presto Labs 的投资

加密眼界

多方资本看好Penpad,Presto Labs已进入投资者行列

股市老人

Scroll 生态项目 Penpad,再获 Presto Labs 的投资

石头财经

NFTScan 与 Scattering 达成合作伙伴,双方将共同解决混合 NFT 数据需求

NFT Research

NFT\ NFTScan

Sermant在异地多活场景下的实践

华为云开发者联盟

华为云 华为云开发者联盟 sermant 企业号2024年5月PK榜

鸿蒙HarmonyOS实战-ArkUI组件(Navigation)

蜀道山

鸿蒙 HarmonyOS 组件 鸿蒙系统 鸿蒙 Ability

鸿蒙HarmonyOS实战-ArkUI组件(Tabs)

蜀道山

鸿蒙 架构 HarmonyOS 鸿蒙系统 ArKUI 3.0

华为云开发者桌面全新发布CodeArts IDE for Python,极致优雅云原生开发体验

华为云开发者联盟

Python 华为云 华为云开发者联盟 华为云CodeArts 企业号2024年5月PK榜

无需重启 NGINX 开源版即可实现 SSL/TLS 证书轮换

NGINX开源社区

nginx API I/O SSL/TLS NJS

GreatSQL的sp中添加新的sp_instr引入的bug解析

GreatSQL

源码分析 greatsql

裁员为什么先裁技术人员?

程序员晚枫

程序员 裁员

安全是最大的豪华!星纪元ET成功挑战31.9米空中坠落试验

极客天地

分析Apache Kafka扩展集群:WAN中断、故障场景和DR策略_后端_InfoQ精选文章