阿里、蚂蚁、晟腾、中科加禾精彩分享 AI 基础设施洞见,现购票可享受 9 折优惠 |AICon 了解详情
写点什么

大规模集群,HDFS 如何从 2.7 滚动升级到 3.2

  • 2020-01-23
  • 本文字数:3011 字

    阅读完需:约 10 分钟

大规模集群,HDFS如何从2.7滚动升级到3.2

1. 为什么要升级

在 2017 年底, Hadoop3.0 发布了,到目前为止, Hadoop 发布的最新版本为 3.2.1。在 Hadoop3 中有很多有用的新特性出现,如支持 ErasureCoding、多 NameNode、Standby NameNode read、DataNode Disk Balance、HDFS RBF 等等。除此之外,还有很多性能优化以及 BUG 修复。


其中最吸引我们的就是 ErasureCoding 特性,数据可靠性保持不变的情况下可以降低数据的存储副本数量,结合公司的降成本目标以及用户的痛点,我们对此做了深入的调研。同时,在实际工作中我们发现,我们遇到的一些 BUG 以及想做的一些优化点,社区早已经修复或者实现。内部使用的 Hadoop 版本对应社区的 2.7.2,由于社区很多 BUG 修复是不会移植到太低版本的,我们解决问题时花费了较多精力在移植与测试验证中。


如果升级到 HDFS3.2 版本,可以站在巨人肩膀上继续工作,做一些更有意义的事情。

2. 调研升级方案

升级方式有两种:Express 和 Rolling,Express 升级过程是停止现有服务,然后使用新版本启动服务;Rolling 升级过程是滚动升级,不停服务,对用户无感知。对于公司来说,当然滚动升级是最好的方案,离线集群用户非常之多,影响面非常之大。


目前业界还没有滚动升级的方案从 2.x 版本升级到 3.x 版本,Cloudera 和 Hontonworks 公司(目前两个公司已合并)给出的推荐方案仍然是 Express 升级,例如 Hontonworks 的文档中描述,目前滚动升级存在一些问题尚未解决,推荐用户做 Express 升级。


当前滚动升级存在的问题记录在 Apache Hadoop Wiki 中,主要问题是 Edit Log 不兼容,无法进行滚动升级。调研之后,我们对整个升级方案有了一个初步掌握,开始着手解决这些问题。


HDFS 整体架构图(网络上获取)如下所示,我们准备对服务端进行升级,包括 JournalNode,NameNode,ZKFC,DataNode 组件。Client 端受到 Spark,Hive,Flink 等等很多组件依赖,目前这些组件还不支持 Hadoop3,因此 Client 版本暂时保持不变。


3. 解决滚动升级中遇到的问题

滚动升级的操作流程在 Hadoop 官方升级文档中有介绍,概括起来大致步骤如下:


1.JournalNode 升级,使用新版本依次重启 JournalNode

2.NameNode 升级

2.1 升级准备,生成 fallback fsimage 文件

2.2 使用新版本 Hadoop 重启 Standby NameNode,重启 ZKFC

2.3 做 failover,使升级后的 NameNode 变成 Active 节点

2.4 使用新版本 Hadoop 重启另一个 NameNode,重启 ZKFC

3.升级 DataNode,使用新版本 Hadoop 重启所有 DataNode 节点

4.做 Finalize,确认集群变更到 3.2


在测试环境验证 HDFS 滚动升级方案时,升级和降级过程中都遇到了一些问题。


在滚动升级中,当 Active NameNode 为 3.2 版本,Standby NameNode 为 2.7 版本时,会出现 EditLog 不兼容问题。此时,Active NameNode 写 EditLog 时会将 EC 相关的结构写入到 EditLog 当中,当 Standby NameNode 读取 EditLog 时,会出现识别不了的情况,导致 Standby NameNode 直接 Shutdown。我们的解决方案是,考虑当前有效版本是否支持 EC,如果支持 EC 则会写入 EC 信息到 EditLog,否则不会写入。而在升级过程中,有效版本实际上还是 2.7,是不支持 EC 的,这个时候忽略 EC 即可,这样 Standby NameNode 读取 EditLog 做合并时,不会出现 EC 相关信息,可正常工作。解决问题的 ISSUE 为 HDFS-13596


在滚动降级中,当 3.2 版本的 NameNode 使用 3.2 版本 Hadoop 重启时,如果当前最新的 Fsimage 是 3.2 版本 NameNode 产生的,则 2.7 版本 Hadoop 重启 NameNode 会直接 Shutdown,原因是,3.2 版本 Haodop 产生的 Fsimage 文件,2.7 版本的 Hadoop 无法进行加载,这将导致如果升级中遇到问题想回滚的话,无法完成回滚操作。经过深入分析,我们发现有两个问题会导致这种情况出现。


第一个问题,Fsimage 的不兼容是由于 3.2 版本的 NameNode 将 EC 信息写入到了 Fsimage 当中,2.7 版本的 Hadoop 无法识别 EC 信息,导致失败。解决方案与上面类似,在保存 Fsimage 时考虑当前的有效版本,如果不支持 EC 则不会将 EC 信息写入到 Fsimage 文件中。解决问题的 ISSUE 为 HDFS-14396


第二个问题,由于 NameNode 对 StringTable 的修改导致了 Fsimage 的不兼容,目前该问题可以通过回滚 commit 进行解决,社区反馈修复也不是很必要,可以通过先升级到无该 commit 的版本,滚动升级稳定后,直接进行小版本升级,跨过这个不兼容特性。记录 ISSUE 为 HDFS-14831


由于滴滴使用的是内部的用户名密码认证机制,社区出现的一个问题我们没有遇到, ISSUE 为 HDFS-14509 ,升级过程中 NameNode 和 DataNode 由于数据结构的变化,生成了不同的 password,导致无法认证,读写数据会失败。该 ISSUE 记录了这个问题,需要先升级到 2.x 的最新版本进行过度,之后才能滚动升级到 3.x 版本。


总结起来,需要做 HDFS2.x 到 3.x 的滚动升级,需要关注这些 ISSUE,HDFS-13596HDFS-14396HDFS-14831HDFS-14509

4. 测试与上线

从 19 年初开始关注 HDFS 滚动升级,在解决遇到的已知问题之后,开发与测试不断讨论升级方案,将可能遇到的风险进行总结。


在这个过程中,我们详细阅读分析了滚动升级的源码,确定升级中 NameNode,DataNode 会做哪些动作,以明确风险点。同时我们还分析了从 2.7 到 3.2 版本引入的关于 HDFS 的 4000 左右的 Patch ,找出可能存在兼容性问题的点,进行深入地分析。同时我们对 3.2 中新引入的 Feature 也进行了分析,以确保新功能对升级没有影响。种种总结、分析、测试相关的工作,我们写了四五十篇的 WIKI 文档进行记录。在测试环境中升级步骤进行了数次演练,确认没问题之后,我们开始了升级之路。相关的具体里程碑上线过程如下:


1.19 年 5 月左右,升级演练多次,准备全量 Hadoop、Hive、Spark Case 进行测试,确定方案没有问题

2.19 年 7 月左右,离线小集群 1(百台)升级到 3.2 版本,用户未受到影响。

3.19 年 10 月左右,离线小集群 2(数百台)升级到 3.2 版本,用户未受到影响。

4.19 年 11 月底,离线大集群(数千台)升级到 3.2 版本,用户未受到影响.


升级过程中,DataNode 在删除 Block 时,是不会真的将 Block 删除的,而是先将 Block 文件放到一个 Trash 目录中,为了能够使用原来的 FallBack Fsimage 恢复以前的数据。当升级周期比较长时,Trash 中的数据就会很多,例如我们这边大集群升级周期就有 3 周之长。升级操作在短时间之内,是可以确定是否有问题的,并且三周之后也不可能真的回滚到以前的数据,倘若真的遇到问题,是需要及时修复的。我们开发了额外的工具,对 Trash 中的 Block 文件进行按天归档,设置好保留时间,例如设置 1 天。我们会每天例行将 1 天之前的数据进行删除,这样可以大大减少 DataNode 上磁盘的存储压力。


升级之后,我们对各个集群进行都进行自己观察,目前服务一切正常。

5. 总结

非常高兴在如此大规模的集群上完成从 2.7 到 3.2 的滚动升级,走在了行业的前列。HDFS 升级过程漫长,但是收益是非常多的。在此基础上,我们可以继续做非常有意义的工作,持续在稳定性、性能、成本等多个方面深入探索,使用技术为公司创造可见的价值。


作者介绍


费辉


滴滴 | 大数据架构技术专家


滴滴出行大数据架构技术专家,负责离线存储。在加入滴滴之前,曾在阿里巴巴参与过 JVM 和 EMR 产品的开发。开源大数据爱好者,积极参与社区的交流讨论,Hadoop/Hive/Tez 社区贡献者。


本文转载自公众号滴滴技术(ID:didi_tech)。


原文链接


https://mp.weixin.qq.com/s/KnP_nod_FDGzWcXeaps-8w


2020-01-23 10:006012

评论

发布
暂无评论
发现更多内容

新利好带动 POSE 持续上扬,月内几近翻倍

威廉META

AIGC 浪潮下,鹅厂新一代前端人的真实工作感受

CODING DevOps

【我和openGauss的故事】原生openGauss与Oracle数据库函数兼容性对比验证测试

daydayup

go-zero 是如何实现令牌桶限流的?

AlwaysBeta

Go 源码 微服务 go-zero 限流器

新利好带动 POSE 持续上扬,月内几近翻倍

BlockChain先知

【我和openGauss的故事】openGauss5.0在某省医保局实时数仓应用

daydayup

【Linux】云服务器自动化部署VuePress博客(Jenkins)

ReturnTmp

jenkins vuepress

从推动到拉动:研发效能提升的第一性原理

CODING DevOps

可视化数据分析工具是什么?可以用来做什么?

巷子

以商业大数据技术助力数据合规流通体系建立,合合信息参编《数据经纪从业人员评价规范

合合技术团队

人工智能 大数据 商业化

【我和openGauss的故事】一文帮你理解openGauss的高可用方案

daydayup

通义千问开源模型部署使用

WizInfo

通义千问

2023-08-10:景区里有m个项目,也就是项目数组为int[][] game,这是一个m*2的二维数组 景区的第i个项目有如下两个参数: game[i] = { Ki, Bi } Ki一定是负数,

福大大架构师每日一题

左程云 福大大架构师每日一题

javascript之webAPIs(1)

timerring

JavaScript

【NodeJS】GLIBC_2.28 not found CentOS7不兼容Node高版本

ReturnTmp

node.js centos

C++友元函数和友元类的使用

二哈侠

【我和openGauss的故事】openGauss5.0特性:CM支持VIP仲裁特性

daydayup

Spring 架构

小万哥

Java spring 后端 springboot SpringCloud

【我和openGauss的故事】在Kylin桌面版操作系统中配置openGauss的ODBC数据源

daydayup

【我和openGauss的故事】openGauss 主备架构及同步复制模式理论学习与验证测试

daydayup

ToolLLM:能够使用 16000 种真实 API 的 LLM

Zilliz

AIGC Towhee LLM

怎么快速更新Python的第三方库?教你一招,小白也能学会

程序员晚枫

Python 编程 计算机 第三方库

新利好带动 POSE 持续上扬,月内几近翻倍

鳄鱼视界

面部表情识别技术在安全领域的应用

来自四九城儿

中国信通院高质量数字化转型产品及服务全景图发布,合合信息多项AI产品入选

合合技术团队

人工智能 数字化转型

ARTS 打卡第 1 周 鸿蒙入门开发教程:一文带你详解工具箱元服务的开发流程

坚果

ARTS 打卡计划 HarmonyOS OpenHarmony 元服务 ArkTS

openGauss数据库源码解析系列文章——安全管理源码解析(四)

daydayup

【我和openGauss的故事】Navicat连接openGauss_5.0.0 企业版数据库

daydayup

openGauss-graph 0.2.0版本正式上线

daydayup

openGauss数据库源码解析系列文章——安全管理源码解析(三)

daydayup

作为网络报表分析工具的Quick BI,其功能如何

夜雨微澜

大规模集群,HDFS如何从2.7滚动升级到3.2_软件工程_费辉_InfoQ精选文章