【ArchSummit架构师峰会】探讨数据与人工智能相互驱动的关系>>> 了解详情
写点什么

yarn 在快手的应用实践与技术演进之路

  • 2019-10-31
  • 本文字数:6104 字

    阅读完需:约 20 分钟

yarn 在快手的应用实践与技术演进之路

8 月 24 日,云+社区技术沙龙“大数据技术实践与应用”圆满落幕。本期沙龙腾讯云联合快手带来大数据实践案例分享。聚焦在大数据技术实践与应用,基于 Spark 构建 PB 级别云数仓、ElasticSearch 产品架构与实践、yarn 系统在快手的应用实践、云端大数据产品架构、腾讯实时流计算技术等话题。


本文是房孝敬老师主题为“yarn 在快手应用实践与技术演进之路”的分享整理,内容包含 yarn 系统在快手的应用实践,遇到的问题以及相应的技术演进过程。


本文主要分为三部分:yarn 的背景、yarn 技术改进、yarn 未来规划。

yarn 的背景

yarn 大家都比较熟悉了,是从 Hadoop1.0 分离到 2.0 的比较重要的特性,把原来的 jobtracker 集中式调度变成 yarn 的二级调度,解决集群扩展性的问题。yarn 主要是分成了三个模块,ResourceManager 来管理整个集群的资源,NodeManager 管理整个机器资源情况,ApplicationMaster 管理整个 APP 的资源信息。MR/SPARK/Flink 实现了自己的 AM 逻辑在 yarn 上运行。



接下来介绍一下 yarn 的 RM 模块。yarn 的 RM 模块按照功能可以分成两部分:集群状态管理和资源分配。RM 内部通过 ResourceTrackerService 和 ApplicationMasterService 负责 NM 和 APP 的通信交互。服务内部会生成相应的事件交给内部的事件处理器处理。驱动 NM 和 APP 状态机的运行,确保 APP 和 NM 处于合适的状态。调度通俗的讲就是把节点的空闲资源分配给需要的 APP。社区早期版本的 yarn 是在心跳逻辑里面触发整个调度逻辑的,这里面有一个问题,调度过程会跟整个事件处理的竞争资源,导致两方相互影响,性能不高,后来 yarn 社区做了优化,把整个调度逻辑拆离,放到单独线程来做。


yarn 在快手的应用特点

yarn 在快手是非常典型的大数据的应用栈,yarn 上面服务了一些经典的离线计算,像 HiveSQL,最终回变成一个 MR/SPARK 作业或者 PESTO 查询在 yarn 上运行。对于流式的实时数据处理需求,我们上层有一个青藤平台来托管 FLINK 在 YARN 上运行。对于模型训练的场景,我们是用 XLearning 作为调度器,调度 TensorFlow,XGBoost,MPI 等训练学习引擎。基于 Spark 和 XLearning,我们打造了亚瑟机器学习平台,可以把数据处理流程和一些模型的训练、预测流程做一个打通,方便用户使用。


yarn 技术改进

1.yarn 技术实践和演进

对 yarn 的一些改动,主要分成四个方面:(1)集群稳定性方面的优化。(2)对 yarn 的抢占机制做了优化。(3)yarn 的调度性能提升。(4)计算集群小 IO 优化。


2.整个集群变大以后,对 yarn 调度系统来说面临什么问题?

直观的感觉来说,整个集群变大,节点就变多了,running 的 APP 夜会增多。节点和 APP 增多会导致 RM 对外服务压力变大,事件处理逻辑增多,事件处理压力会比较大,并且对增加整个调度的压力。因为你有很多的 APP 需要请求资源,你整个资源池又非常大,所以整个调度压力是非常大的,怎么解决这个压力的问题。还有整个状态变化会非常多,这时候会有一些事件处理,在 yarn 原生的框架里面,事件处理是单线程的,会有各种各样的问题,整个事件处理压力非常大。针对这些问题我们做了一些针对性的优化。在大集群里面,机器故障会变得越来越频繁,怎么应对机器故障对整个作业稳定性造成的影响,这也是比较重要的方面。


3.在 RM 方面做的一些优化

从几个比较经典的 Case 来说一下。有一次我们升级整个集群的时候,导致整个集群挂掉,一次升级几百个机器,直接导致 RM 事件雪崩,最终 OOM 掉。我们发现是 RM 和 NM 交互有一些冗余事件的,我们对冗余事件进行了一些优化。对于 NM,我们设计了一个慢启动的策略,如果 NM 刚启动没有必要维持每秒汇报一次,开始可以 20 秒汇报一次,下次 10 秒,下次 5 秒,最终恢复到正常,这样会把整个 RM 的事件处理压力降下来,最终升级集群对 RM 基本没什么影响。最终升级瓶颈变成了我们的运维系统,不能并发升级太多机器。


HDFS 是 yarn 非常底层的基础设施,ResourceManager 事件处理逻辑中有一些 HDFS 操作,HDFS 卡一下,会造成整个事件处理逻辑卡住,最终整个集群卡住。分析发现 RM 对 HDFS 的操作主要集中在失败 APP 的处理,不是非常核心的逻辑,解决方案也比较简单粗暴,把 HDFS 的操作从同步改成异步。我们还对整个 yarn 事件处理逻辑进行排查,发现有一些像 DNS 的操作,在某些情况下也会比较卡,我们就把这种比较重 IO 的操作进行相应的优化,确保事件处理逻辑中都是快速的 CPU 操作,保证事件处理的高效和稳定。


经过优化之后,我们发现在集群规模比较大的时候,事件处理过程还是要消耗非常多的 CPU,我们 profile 发现,大部分的 CPU 的消耗是处理 NM 节点信息的汇报,RM 事件处理主要分几个部分,有一些是节点级别的,有一些是 APP 级别的,有一些调度级别的。NM 级别跟其他的是没有太必要放在同一个线程处理,我们把它抽离出来,放在一个额外的线程上,这样把大部分处理迁出去了,让整个事件处理逻辑变得比较轻量。


2.6 之后 yarn 支持状态恢复,RM 重启理论上对 APP 是没有影响的,可以把 APP 恢复出来,但是还是有一些比较小的缺陷,会造成 APP 的失败,比如没有把一些异常 cover 住,抛到 AM,导致 AM 挂掉,token 恢复在一些场景下也有问题。我们的 RM 升级是非常频繁的,基本上 2 天左右就会升级新版本,集群上有一些非常重要的作业,所以失败,对他们造成的影响会比较大。


4.在从节点上面怎么避免单点问题

yarn 社区本身是有一个磁盘的故障监测机制的,基本的思路也会定期在磁盘上创建目录,如果能创建成功说明这个磁盘是 OK 的,如果失败就认为你这个磁盘有问题,这个比较简单有效。但是在某些特定场景下,会有一些奇怪的磁盘问题,比如整个磁盘是好的,但是某个目录是坏的,可能会导致某些特定的作业失败。我们扩展了 NM 磁盘的黑名单功能,通过 container 的失败信息做一些规则匹配,这样可以定向发现一些磁盘问题,把疑似有问题的磁盘放在黑名单里面,不再向这个磁盘调度作业。


yarn 有一个比较大的问题,如果你有一台机器有问题,造成一些 container 调度失败,并且系统没有捕获的话,会造成雪崩效应,比如一批 container 启动失败了,这台机器资源看起来非常空闲,然后 RM 发现机器空闲,就调动更多 container 上来,然后越来越多的 container 失败,最后导致很多 APP 运行失败。社区提出了 AM 的黑名单机制,主要来解决 AM 的失败问题,如果 AM 大量失败,不往这台机器上调度 AM,APP 内部依赖自己的黑名单机制,发现这些问题机器。我们觉得这样可能会造成很多无效的 container 失败,所以我们的解决思路是建立整个集群的黑名单,而不单独是 AM 的黑名单。当我们通过一些规则发现有大量的 container 在某一台机器失败,或者这台机器的 container 调度速度非常异常,我们会把这台机器放到我们集群的黑名单里面,不再向这台机器调度资源。


资源隔离方面,现在社区主要是用 cgroup 做一些内存和 CPU 的隔离,其他方面的隔离非常弱的,我们当时碰到一些场景比如磁盘打满了,FD 泄露、线程泄露的问题。曾经在上一家公司的时候写过一个程序,有线程泄露的问题,泄露之后把整个机器的线程全用光了,这样导致这个机器所有服务异常,计算框架计算不断把这个问题 task 调度到其他机器上,最终把整个集群都打挂了。解决方案就是对 container 的线程数目,磁盘大小定期检查,如果超过阙值,直接 kill 掉。


单台机器的故障率比较低,但集群规模变大之后,整体故障率变得非常高。怎么发现这些机器是个问题。我们借助 container 失败率做一个基本的判断。如果是一台机器失败率高于正常值,可能是非常有问题的,需要人工检查一下。还可以借助一些物理指标的异常检测,因为在离线系统里面,CPU 打得比较高的,load 也比较高,所以当前这些指标可能不容易发现,用 syscpu 作为异常检测指标,集群中经常有些机器 task 跑的比较慢,重启机器就好了。一台机器有问题会导致 Task 失败,Task 失败会导致作业的失败,我们做了一个失败 APP 的归因系统,可以从归因系统里面发现一些问题机器。单纯从作业失败还不够,我们正在做一个基于失败 TASK 的归因系统,因为 TASK 有容灾重试机制,可能会掩盖潜在问题。


5.yarn 调度方面做的优化

yarn 一个主要的功能,就是要调度整个集群的资源,它的视角是整个集群的节点信息,还有 APP 的资源请求信息,还有一些队列信息。yarn 的调度模型里面,逻辑是比较复杂的, 简单说,先来一个节点,如果这个节点有一定资源的话,会对集群中的一级队列做排序,然后选出最应该调度的队列。选择这个队列之后找这个队列下面的二级队列进行排序,逐渐递归找到 APP,选一个合适的 APP 进行调度,如果资源调度不上,再找下一个 APP。调度逻辑是要耗费很大资源的,主要是各种排序。但整个排序真的有这么大必要吗?



我们早期思路就是怎么减少整个排序的时间,减少排序时间从三方面着手,减少排序规模,减少单次排序时间,优化排序算法。如何减少排序规模?集群里有几千个队列,几千个队列是不是都需要资源?APP 是不是都需要资源,是否都需要排序?实际场景中大部分是不需要资源和参与排序的,这样把整个排序规模减小了。在调度单词排序时,使用了 java collection.sort()函数排序的,每次排序涉及到两个元素的 compare,怎么来减少 compare 的开销?在 yarn 里面每一次 compare 的时候有很多可以可以优化的地方,比如计算一个队列使用的资源量,有一些临时对象可以 cache 住,最终缩小整个单次排序的时间。Collection.sort 底层使用归并排序,我们改成堆排序,经过这些优化后,差不多能够支撑 5000 台机器的规模。



优化之后还是存在一个很明显的问题,调度的扩展性是不足的,因为整个排序过程都是在一个 CPU 里面,如果想利用更多 CPU,会涉及到整个排序怎么切分,节点怎么切分、作业怎么切分,怎么让资源分配达到均衡,怎么保证公平性,涉及到非常复杂的策略,非常难拆分。yarn 调度是先选一个节点,然后再选 APP,调度过程只看到一个节点的信息,而看不到整体的集群信息,整个调度策略是非常受限,很难加一些策略在里面。比如 yarn 本地化一个非常简单的功能实现上比较复杂,在整个调度框架层面。如何来解决这个问题?



最终决定我们重写调度逻辑,开发了 Kwaischeduler。我们觉得在整个集群里面有一个上帝视角的,你可以拿到整个集群的资源使用情况和资源配置情况和每一个队列、每个 APP 的资源需求量和资源的配置。基于这些信息,我们能够计算出来,应该给每一个 APP 来分配多少资源。然后 App 资源的分配过程我们完全可以并发起来,借助多线程的能力,去整个资源池里面抢这些资源。因为我们是先调度 APP 的,所以抢这些资源的时候,借鉴 K8S 的调度思路,先对节点进行过滤,然后按照不同的调度策略,给每个节点打分,每个策略可以有一个权重,从理论上来说每个 APP 都可以有自己的策略。Kwai scheduler 上线后调度性能和调度策略扩展性不是问题,现在单集群的调度性能可以达到每秒钟 4 万多 container,对比国内其他厂商和社区,我们的调度性能和扩展性上表现还不错。



简单介绍一下底层实现。首先主要分成两部分,一部分是集群资源的预分配过程,把一些资源分配到每个 APP,第二部分是 APP 怎么去每台机器上竞争资源。有一个单独线程定期会对集群情况做 snapshot,基于 snapshot 来做一个上帝视角的资源分配。我们为每个 APP 分配出资源之后,就可以把 APP 丢到线程池里面并发抢资源,对相应的节点排序,选出分数最高的节点,最终你会有一个 commit 的过程,真正拿到资源。整个调度分配结束后,会把整个分配结果写回到整个原生的 yarn 框架。



在计算集群里面有一个大的问题,就很多的小 IO。在我们业务场景里面,快手的数据规模比较大比较大,经常是几十万个 map,几千 reduce。一个 map 也没有多少数据,可能就是 250M,reduce 单次 shuffle 取的数据非常小的,可能只有几 K 几十 K,所以有很多的小 IO,导致整个集群磁盘 util 非常高,但是磁盘读写速度非常慢。针对这个问题,我们对 MR 的 shuffle 过程做一个 Cache。在 shuffle 过程中,当一个请求来的时候,我们分析一下这次 shuffle 过程有没有可能产生比较多小 IO,可以按需把 shuffle 数据放到 cache 里,只需要一次大的 IO 把数据搬到 Cache 里面,后面的 shuffle 请求可以直接从 cache 里面读,消灭了后面多次小 IO,通过这个我们优化,提升了整个的集群 IO 性能。



yarn 为什么有抢占的问题,为什么 K8S 这些在线系统不会有抢占问题。yarn 主要是离线调度系统,资源使用不像在线系统比较恒定,有一些突增,这意味着如果完全资源配额限制资源,会导致整个集群的资源利用率降低或者 job 的运行时间拉长。所以 yarn 允许你的资源使用超过配额。这带来另一个问题,使用超过配额后,当另一个队列需要资源的时候,能不能及时把这些资源释放出来。在大部分情况下是可以的,因为离线系统的作业一般会比较快的结束。但是在特殊场景下,有可能是一个 spark 作业一直占着资源不释放,可能会导致一些比较核心的作业拿不到资源。抢占主要是解决这个问题。但是在大部分的公司,抢占是没有打开的,原因主要因为社区版本的抢占不太可控。会基于队列的资源使用量来决定是否抢占,如果核心队列资源使用超过配额太多, 可能会被非核心队列抢占,存在比较大的风险。我们解读这个问题的思路是基于一些核心队列来触发的抢占,抢占只能从核心的队列触发,被抢占的只是非核心队列,这样就解决低优先级作业抢占核心的作业问题。但是这个方案还是有些问题,如果使用资源超过配额的都是一些核心的作业,这时候怎么处理?我们主要思路是,希望构建整个集群的作业优先级体系,把作业重要性系统做一个全局拉起,这样我们可以做一些队列内部的抢占和跨核心队列之间的抢占。


yarn 的未来规划

构建作业分级保障,现在我们 yarn 的集群规模比较大,大家使用的资源都非常多,但是这些资源有没有用到真正比较重要的业务上,其实我们是有些疑问的,有多少无效的计算在里面,当然这个涉及到业务层的优化。为作业打一些作业的标签,基于这些任务的标签,以及优先级的特性,刻划整个集群资源的使用情况,为预算或者其他的技术方案提供一些技术的底层支持。


我们现在单个 yarn 集群规模在国内是 top 级的,但是单集群毕竟是容量有限,我们后面会考虑多集群建设的方案,社区的 federation 方案在跨 IDC 方面有些问题,如何在业务透明的前提下,建设跨 IDC 集群有非常多问题需要解决。



yarn 现在主要托管的是一些离线计算的资源,公司还有很多空闲资源没有使用,怎么来使用这些空闲资源,怎么做到把一些合适的任务调入到一些比较空闲的机器上,当这个机器需要的时候,及时把任务迁移走,怎么减少业务相互的影响,底层这方面需要做什么支撑,这都需要探索。


作者介绍:


房孝敬,快手大数据架构团队调度方向负责人,目前负责快手公司 Hadoop 生态中调度、AI 架构等子系统内核与周边子系统的研发,并推动在公司内的应用。2011 年毕业于北京邮电大学,曾就职于阿里、腾讯。主要研究领域包括 Docker 云平台,分布式调度和计算平台,AI 架构等。


本文转载自公众号云加社区(ID:QcloudCommunity)。


原文链接:


https://mp.weixin.qq.com/s/uiDRENJ4jhGS7QJjP9GlLw


2019-10-31 14:501693

评论

发布
暂无评论
发现更多内容

Nautilus Chain:模块化Layer3的先行者

西柚子

架构实战营-模块1作业

link

大规模 AI 高性能网络的设计与实践

Baidu AICLOUD

大模型训练 RDMA

OpenHarmony自定义组件

坚果

OpenHarmony 6 月 优质更文活动

Nautilus Chain:模块化Layer3的先行者

大瞿科技

Kubernetes集群授权管理

穿过生命散发芬芳

Kubernetes 6 月 优质更文活动

理论+实践:从原型链到继承模式,掌握 Object 的精髓(二)

控心つcrazy

Nautilus Chain:模块化Layer3的先行者

威廉META

把金融航母开进智能峡湾,总共分几步?

脑极体

华为 AI 金融

自动驾驶发展依旧处于初步阶段

来自四九城儿

深度解读:ASP.NET Core Blazor 含快手入门教程

EquatorCoco

asp.net

AI血洗时尚圈!就连这些线上店家都开始用AI生成爆款商品了

Openlab_cosmoplat

人工智能 AI

英特尔研究院发布全新AI扩散模型,可根据文本提示生成360度全景图

E科讯

Nautilus Chain:模块化Layer3的先行者

EOSdreamer111

Nautilus Chain:模块化Layer3的先行者

鳄鱼视界

中国自动驾驶发展加速,已实现多场景落地应用

来自四九城儿

java中synchronized和ReentrantLock的加锁和解锁能在不同线程吗?如果能,如何实现?

福大大架构师每日一题

Java Go 福大大架构师每日一题

Nautilus Chain:模块化Layer3的先行者

BlockChain先知

Django笔记四十四之Nginx+uWSGI部署Django以及负载均衡操作

Hunter熊

Python nginx django 负载均衡 uwsgi

火山引擎Dataleap数据质量解决方案和最佳实践(一):数据质量挑战

字节跳动数据平台

数据治理 数据开发 数据质量 数据研发

CC2530+ESP8266与手机APP通信

DS小龙哥

6 月 优质更文活动

沙利文发布《2023中国数据管理解决方案市场报告》,腾讯云位列领导者梯队

说山水

复旦大学高校专区入驻飞桨AI Studio,优质教育资源等你来学!

飞桨PaddlePaddle

人工智能 百度 paddle 飞桨

敏捷项目管理工具大全

顿顿顿

敏捷项目管理 敏捷工具 scrum工具

HAG宣布在INX平台进行STO发行

股市老人

Nautilus Chain:模块化Layer3的先行者

股市老人

横看Dubbo-微服务治理之无损上线

K

微服务 dubbo 无损

2023-06-21:redis中什么是BigKey?该如何解决?

福大大架构师每日一题

redis 福大大架构师每日一题

自动驾驶的必要技术和等级

来自四九城儿

基于 Flink CDC 构建 MySQL 到 Databend 的 实时数据同步

Databend

分布式流处理组件-生产实战:Broker节点负载

谢先生F

kafka 负载均衡 broker

yarn 在快手的应用实践与技术演进之路_文化 & 方法_房孝敬_InfoQ精选文章