写点什么

滴滴 HBase 大版本滚动升级之旅

  • 2020-06-18
  • 本文字数:2951 字

    阅读完需:约 10 分钟

滴滴HBase大版本滚动升级之旅

1. 背景

目前 HBase 服务在我司共有国内、海外共计 11 个集群,总吞吐超过 1kw+/s,服务着地图、普惠、车服、引擎、金融等几乎全部部门与业务线。



‍然而有一个问题持续困扰着我们:版本较社区落后较多——HBase 线上集群使用 0.98 版本,而社区目前最新的 release 版本为 2.3。这为我们的工作带来了很多额外的掣肘与负担,主要包括以下几点:


  • 新特性引入成本极高;

  • 0.98 版本可以算是 HBase 第一个稳定版本,但过于老旧,社区已经不再维护。想要 backport 新特性难度越来越大。

  • 自研 patch 维护成本较高;

  • 我们基于 0.98 版本有数十个大大小小的自研 patch,涵盖了从 label 分组、ACL 鉴权等大的 feature 到监控体系建设、审计日志优化等 Improvement 以及各种 bug fix。这些 patch 或是新版本中已支持但和我们实现有差异,或是由于版本差异过大无法合入社区,而且随着时间线的拉长,这种问题只会进一步恶化。

  • 上层组件对于 HBase 存在一定需求;

  • 得益于活跃的 HBase 生态圈,目前我们的用户使用形态也比较丰富,OLAP(Kylin)、时空索引(GeoMesa)、时序(OpenTSDB)、图(JanusGraph)等等场景不一而足。然而这些上层引擎无一例外,最新版本没有任何一款是依赖 0.98 版本 HBase 的。


因此对于 HBase 团队而言,升级迫在眉睫刻不容缓。

2. 挑战


首先简单介绍一下 HBase 的架构。HBase 是一个典型的主从结构——主备 Master 用于管理集群;RegionServer 用于响应处理用户读写请求;使用 ZooKeeper 保障集群内的一致性;节点间通过 RPC 通信;底层数据文件 HFile 存储于 HDFS 中。


此外 HBase 具有相当丰富的上下游生态,从以 StreamingSQL 为代表的实时任务到 Spark、MR 等批处理任务,通过下图可以得窥一二:



基于以上对集群架构和上下游生态的梳理,可以明确升级过程中我们主要面临的挑战有:


  • RPC 接口兼容性问题;

  • 升级不可能一蹴而就,因此我们需要确保所有 RPC 通信接口新旧版本完美兼容。

  • HFile 兼容性问题;

  • 不同版本中底层文件的数据格式有差异。1.4.8 版本默认使用 HFile v3,幸运的是 0.98 版本虽然使用 HFile v2,但已经可以兼容 v3。这样我们就不需要再额外 backport 相关 patch 到 0.98 版本。此外也是基于这方面的因素,官方文档中说明 0.98 版本想要升级到 2.x 版本,必须以 1.x 版本作为过渡——这也是我们本次升级 选择 1.4.8 版本的原因

  • 自有 patch 兼容性问题;

  • 如上文所述,我们需要全量梳理自研的数十个 patch——高版本是否有替代方案、替代方案是否兼容、是否需要移植到新版本、移植后的功能/性能/兼容性测试等。

  • 上下游兼容性问题;

  • 这一点大家看上图就好不需再赘述,每一种引擎的应用都需确保完全兼容。

  • 可能引入的新问题;

  • HBase 的社区 release 版本迄今仍然非常活跃,但同时这也意味着可能存在很多潜藏的问题(事实上我们在升级过程中也遇到了,解决了并反哺给社区)——这一点其实没有什么太好的办法,只能要求我们随时紧密跟进社区,洞察新进展,即时发现问题修复问题。


基于以上这些挑战点,其实不难得出一个结论:我们需要设计并实施大量的前置准备工作以保证升级过程的可靠性,但这并不是什么坏消息,因为只要我们的准备工作足够细致完善,顺利升级的把握和信心也就越强——这个思路在我们今后的工作中也同样适用。


下面简单列举了我们完成的准备工作:


  • Release Note review

  • 自研 patch 移植与测试

  • 基础功能测试、性能测试

  • 高阶功能测试(Bulkload,Snapshot,Replication,Coprocessor 等)

  • 社区后续小版本 patch 梳理跟进(截止目前实际合入的有 100 余个)

  • 跨版本兼容性测试、RPC 接口兼容性梳理

  • 全量测试集制定与实施,涵盖 HBase ,Phoenix,GeoMesa,OpenTSDB,Janusgraph 等所有使用场景

  • 软件包及配置文件准备

3. 升级方案

升级方案主要有两种:新建集群+数据迁移 和 滚动升级。


优点缺点
新集群+数据迁移双集群可快速降级,风险较小需用户配合切换,体验较差
升级周期较长,预计半年以上
操作复杂,成本高
滚动升级用户无感知
升级周期短
操作简单,成本低
发现故障需要即时回滚,挑战相对较高


实际上滚动升级的方案一定是最优选,主要是出于对“release 版本仍然不够稳定”的担忧,我们一度有所犹豫。但最终基于“充分的准备与测试”带给我们的信心,最终我们仍然选择了滚动升级。


简单说明滚动升级的大致步骤:


  1. 解决兼容性问题,主要体现在新建 rsgroup 元数据表并重写数据、挂载新的 coprocessor 等;

  2. 升级 master 节点;

  3. 升级 meta 分组;

  4. 依次升级业务分组;


4. 实操及问题

我们从 19 年下半年启动了这一轮滚动升级的调研与准备,今年 3 月下旬正式开始线上操作,截至 5 月初已完成了国内外共计 9 个集群的升级工作,用户无感知。


在此期间我们也遇到了不少未解问题,这里摘取一个 Critical 问题做简单介绍:


region split 过程中叠加 RS 宕机引发数据丢失


region split 是一个相当复杂的事务过程,大体可分为以下几步:


  • RegionServer 开始执行 split 事务,在 ZK region-in-transition 下创建该 region 的节点,标记为 SPLIT;

  • Master 监听到新的 split 节点,开始做一些初始化工作,并修改内存状态,完成后将节点状态改为 SPLITING;

  • RS 监听到节点状态变为 SPLITING,开始正式执行 split——关闭父 region、创建子 region 文件夹并添加引用文件、修改 meta 表记录两个子 region 并将父 region 下线;

  • 子 region 上线;


当父 region 下线、子 region 还未正式上线时 RegionServer 宕机,master 上的 ServerCrashProcedure 线程开始进行回滚,会将子 region 删除;此外 master 上还有一个 CatalogJanitor 线程做数据清理,正常 split 过程中由于 ZK 上存在对应节点,这个线程会被阻塞;然而由于 RS 宕机,临时节点也随之消失,该线程正常工作,判断 meta 表中父 region 已经下线,从而将父 region 删除——至此父子 region 皆被删除,导致数据丢失。


修复方案已提交社区:HBASE-23693


其它 patch list


  • HBASE-22620 修复 replication znode 积压问题;

  • HBASE-21964 支持按 Throttle Type 取消 quota 设置;

  • HBASE-24401 修复 hbase.server.keyvalue.maxsize=0 时 append 操作失败的问题;

  • HBASE-24184 修复只使用 simple ACL 时 snapshot 相关操作的鉴权问题;

  • HBASE-24485 Backport,优化堆外内存初始化时间;

  • HBASE-24501 Backport,去除 ByteBufferArray 中非必要的锁;

  • HBASE-24453 Backport,修复挪动表分组时缺少校验逻辑的问题;

5. 总结

本次升级工作从立项到完结耗时近一年,能够成功完成非常开心。一方面本次升级极大拉进了内部版本与社区 release 版本的距离,为更加良性的版本迭代及社区互动夯实了基础;另一方面新版本引入了诸多新特性,在稳定性、易用性方面都为我们带来了更为广阔的成长空间;更重要的是在这个过程中我们自身也沉淀出了一套系统的工作思路与方法论,期待后续可以更好的为业务赋能,为公司创造价值。


作者介绍


唐天航


滴滴出行资深软件开发工程师


滴滴资深猫奴,专注于 HBase 内核研发,滴滴 HBase 服务及上下游生态的建设与维护。


本文转载自公众号滴滴技术(ID:didi_tech)。


原文链接


https://mp.weixin.qq.com/s?__biz=MzU1ODEzNjI2NA==&mid=2247492131&idx=1&sn=7dd0ea079f5290fe042da1d7b3a6597d&chksm=fc298c84cb5e0592390098c6746113e47794389c22b294d1b99575ebeec83a9733b3c525af1b&scene=27#wechat_redirect


2020-06-18 10:072404

评论 1 条评论

发布
用户头像
难度好大。
2020-06-22 10:31
回复
没有更多了
发现更多内容

IoT 小程序:如何破解设备互联的碎片化困局?

Byte_Me

小程序 App IOT Platform IoT

PAIFuser:面向图像视频的训练推理加速框架

阿里云大数据AI技术

AI 视频生成 PAI

云电脑 vs 传统PC:ToDesk、青椒云等3A游戏与AI训练的成本与性能对比

鸽芷咕

人工智能 AI 云电脑 AIGC ToDesk

聚焦制造业智能化转型 中国科学技术大学依托昇腾突破知识增强大模型关键技术

极客天地

备受关注的“操作系统开源与 AI 进化”分论坛来了 | 2025 云栖大会

OpenAnolis小助手

操作系统 云栖大会 龙蜥社区 OpenAnolis

即时通讯|BeeWorks企业im系统,生态互连重塑企业协同办公

BeeWorks

即时通讯 IM 私有化部署

苏州八大机房20A机柜租用价格范围?应用场景及成功案例分享

苏州服务器托管

苏州服务器托管 苏州机柜租用 IDC机房托管

Apache Doris 4.0 AI 能力揭秘(一):AI 函数之 LLM 函数介绍

SelectDB

实时数仓 Apaache Doris LLM 数据库 大数据 AI 函数

LLM 中 token 简介与 bert 实操解读

地平线开发者

自动驾驶 算法工具链 地平线征程6

移动端即时通讯源码/IM聊天源码RainbowChat,纯原生体验丝滑、全源码易二开

JackJiang

网络编程 IM 即时通信

海外红人营销中最常见的五个误区

Wolink

海外推广 达人营销

道路表面缺陷数据集(裂缝/井盖/坑洼)(6000张图片已划分、已标注)|适用于YOLO系列深度学习分类检测任务【数据集分享】

申公豹

人工智能

当你的库房物料损耗难管控时,真该看看这家企业怎么做到「零异常流失」

斯科信息

智能称重系统 斯科信息 RFID技术

Discord x Pulsar: 使用Pulsar、Flink和Iceburg搭建流式机器学习平台

AscentStream

机器学习 flink pulsar Discord

把数据分析主导权交给业务,Aloudata Agent 面向全行业公开体验

Aloudata

数据分析 agent 指标平台 ChatBI

Word可以转PPT吗,如何进行?4个AI工具大盘点

职场工具箱

人工智能 PPT 办公软件 AIGC AI生成PPT

Intel 14A,关键在于如何推进,而非是否推进

科技热闻

Apache Doris 在菜鸟的大规模湖仓业务场景落地实践

SelectDB

数据仓库 数据分析 LakeHouse 湖仓一体 菜鸟

淘宝首位程序员离职,竟投身AI新公司做这事!

王磊

AD域组策略管理

运维有小邓

AD域 AD域管理

如何通过Python SDK描述Collection

DashVector

人工智能 数据库 向量检索 大模型 向量检索数据库

实战揭秘|魔搭社区 + 阿里云边缘云 ENS,快速部署大模型的落地实践

阿里云CloudImagine

云计算 边缘计算 大模型 ens 大模型落地

龙蜥社区第 35 次运营委员会会议圆满结束

OpenAnolis小助手

操作系统 龙蜥社区 OpenAnolis

构建全面 GRC 策略的三大关键能力|ADManager Plus 助您实现合规与安全并重

运维有小邓

2025年PC怎么买?认准这一点,性能/能效/AI/静音各种体验全都要!

科技热闻

mybatis中<if>条件判断带数字的字符串失效问题

刘大猫

人工智能 算法 智慧城市 智慧交通 大模型

快手发布Klear-Reasoner:90.5%准确率登顶8B模型榜首,GPPO算法破解RL训练裁剪难题

快手技术

高校数字化转型实战:破解数据孤岛、构建智能指标体系与AI落地路径

袋鼠云数栈

解决方案 智慧校园 高校 智慧校园解决方案 数字化转型‘’

小度 X Atwell筑格酒店,共创高端智能化酒店新体验

科技大数据

从编码工到低代码架构师的新生路

秃头小帅oi

内网聊天工具私有化IM选择指南,BeeWorks可能适合你

BeeWorks

即时通讯 IM 私有化部署

滴滴HBase大版本滚动升级之旅_架构_唐天航_InfoQ精选文章