GMTC全球大前端技术大会(北京站)门票9折特惠截至本周五,点击立减¥480 了解详情
写点什么

Serverless 弹性伸缩的现状调研

2020 年 12 月 23 日

Serverless弹性伸缩的现状调研

引言


闲鱼的服务端技术架构正向着云原生/Serverless 化发展,Serverless 具有着运维自动化、按需加载、弹性伸缩、强隔离性、敏捷开发部署等技术特点,带来了降低人力成本、降低风险、降低基础设施成本、降低交付时间等核心优势。这其中,弹性伸缩是 Serverless 中被广泛关注的一大亮点,甚至有些人将自动扩缩容的能力支持作为应用是否 Serverless 化的判定标准。另外,在闲鱼与淘系 Gaia FaaS 平台共建 Serverless 化的业务迁移时,弹性伸缩也一直是个悬而未决的问题。为此,本文会针对 Serverless 的弹性伸缩技术的现状做一个初步的调研。

弹性伸缩的基本概念

定义


弹性伸缩所关注的问题主要是容量规划与实际集群负载间的矛盾,当现有集群的资源无法承载流量压力时,如果通过调整集群的规模或者资源的分配,从而保障系统的稳定性,同样在集群负载较低时,尽量降低集群的资源配置从而减少闲置资源的浪费带来的成本开销。弹性伸缩不仅适合业务量不断波动的应用程序, 同时也适合业务量稳定的应用程序。



弹性伸缩可以分为应用伸缩、技术伸缩和资源伸缩,我们通常所说的伸缩大都指的是资源的伸缩性,即调整机器的硬件资源以提高系统性能。而资源伸缩又可以分为横向水平伸缩和纵向垂直伸缩。纵向垂直伸缩是指通过提升集群内每个节点的处理能力以提升整体性能的伸缩方式,简单来说就是给单节点机器配置升级;而横向伸缩是指通过增删集群节点来提升或降低系统的处理能力,优点在于伸缩更加灵活,由于节点间资源是完全隔离的,也不必担心单点故障对其他节点的影响,更加安全可靠。因此在大部分 Serverless 应用场景中都采用横向水平伸缩方式。

弹性伸缩算法


弹性伸缩算法一般可分为基于某个资源指标阈值的响应式伸缩算法和基于预测型的伸缩算法,前者通过周期性的资源指标数据,与所设定的指标阈值进行对比,从而动态的改变集群节点数量;后者则通过对历史的系统性能与资源配置数据的分析,对未来的容量进行评估预测,相比于基于阈值的响应式伸缩算法,基于预测型的伸缩算法能更快的响应突发状况,弹性伸缩变化更加的平滑,但是分析数据所需要的模型建立也显得尤为关键,具有比较大的挑战难度。


通常在业务场景的落地和大部分的开源解决方案中,弹性伸缩的算法都是基于阈值来实现的,比如 CPU 使用率、Load、内存使用率、磁盘使用率等,通过设定一个资源的 Buffer 水位来避免系统的过载发生。

云原生应用 Kubernetes 弹性实践


目前云原生应用的设计理念已被越来越多的业内人士所认可,而 Kubernetes 作为云原生的标准接口实现,已经成为了容器编排的事实标准。云服务的能力可以通过 Cloud Provider、Operator 等方式从 Kubernetes 的标准接口向业务层透出,而业务开发者可以基于 Kubernetes 构建自己的云原生应用,基于 Kubernetes 的各种云原生应用生态让 Kubernetes 成为了“云 OS”。

Kubernetes 弹性伸缩组件


Kubernetes 提供了一系列标准的弹性伸缩组件,从方向上可分为横向水平和纵向垂直两种伸缩方式,从对象上可分为按 Pod 伸缩和按节点伸缩。这样就存在节点水平伸缩组件 Cluster-Autoscaler、Pod 水平伸缩 HPA&Cluster-Proportional-Autoscaler 以及 Pod 垂直伸缩 VPA&Resizer 这三大组件。其中 HPA 组件最为常用,HPA 可以基于 CPU 利用率自动扩展 Pod 数量,当然也支持基于其他应用程序提供的自定义度量指标来执行自动扩缩。Pod 水平自动扩缩特性由 Kubernetes API 资源和控制器实现,资源决定了控制器的行为。控制器会周期性的调整副本控制器或部署中的副本数量,以使得 Pod 的平均 CPU 利用率与用户所设定的目标值匹配。


HPA

Kubernetes 资源指标数据


目前 HPA 的 API 共有三个版本,分别是 autoscaling/v1、autoscaling/v2beta1 和 autoscaling/v2beta2,其中 autoscaling/v1 只支持基于 CPU 指标的伸缩,v2beta 版本额外支持内存等其他资源指标,并且还支持自定义指标的伸缩。所有的系统资源指标数据,都可以通过 Metrics API 来获取,而自定义指标数据的采集是通过 Agrregator APIServer 扩展机制来实现的,HPA 使用这些 metrics 信息来实现动态伸缩。

HPA 算法介绍


HPA 的主要伸缩流程如下:


1.HPA 控制器根据当前指标和期望计算扩缩比例


期望副本数 = ceil[当前副本数 * (当前指标 / 期望指标)]


2.计算期望指标与当前指标的比值得到一个伸缩系数,如果系数大于 1 表示扩容,小于 1 表示缩容,指标数值有平均值、平均使用率、裸值三种类型,每种类型的数值都有对应的算法。需要注意的是,如果伸缩系数未达到某个容忍值,HPA 控制器会认为变化太小而忽略这次系数的变化,容忍值默认为 0.1。


HPA 伸缩算法是一个相对比较保守的算法,如果某个 Pod 获取不到资源指标或者资源没有准备好的情况下,在进行扩容操作时,该 Pod 的资源指标均不会加入计算。如果创建 HPA 的时候指定了多个指标,那个会按每个指标分别计算扩缩容副本数,并取最大值进行扩缩容。另外,在 HPA 执行伸缩操作前,会记录扩缩建议信息,HPA 控制器会在操作时间窗口中考虑所有的建议信息,并选择得分最高的建议。这个值可配置,从而可以让系统更为平滑地进行缩容操作,从而消除短时间内指标值快速波动产生的影响。

HPA 应用场景


HPA 的特性使得部署在 HPA 伸缩对象上的服务具有非常灵活的自适应能力,当面对某个系统指标的突增时能够在一定限定范围内快速复制多个副本,也可以在指标持续走低的情形下通过删除副本以腾出资源,从而保障了整个系统的稳定性。比较适合存在周期性较大流量波动的业务场景,如电商、金融等应用。


困难与挑战

Kubernetes 弹性伸缩挑战


目前大部分开源组件和解决方案都是基于 Kubernetes 的弹性伸缩组件来实现的,表面上看起来没什么大的问题,但是通过调研发现,随着用户需求的日趋多样化,基于 Kubernetes 弹性组件的应用扩缩容策略逐渐暴露出很多不足之处:

1.应用级别指标进行弹性伸缩的支持不佳


Kubernetes 的内置能力主要作用对象都是容器级别的,提供了管理和编排容器的能力支持,但是大部分产品都是以应用和用户为核心,这样以容器级别的 CPU 和内存等作为扩缩容指标就显得有点粗粒度,他们更关注 RT、QPS、接口成功率等应用级别细粒度的负载指标,围绕这些指标以提供弹性伸缩能力才是迫切需要的。但比较尴尬的是,尽管 Kubernetes HPA 组件提供了自定义指标的功能,它的可扩展性整体上还是不够灵活,自定义指标的可插拔性也不够好,尤其当将自定义指标细化到应用层面时,经常不得不去修改底层的 HPA 组件代码。因此,如何通过一个扩展性更强的、外部框架来进行细粒度的应用扩缩容策略显得尤为关键。

2.不支持应用 Scale To Zero 的需求


Scale To Zero 是指当容器或者 Pod 处于闲置状态时可以将副本数缩减至 0,然后当有请求流量时,可以快速恢复。在 Serverless 场景中,Scale To Zero 是一个比较典型的自动弹性伸缩场景,可以有效节省资源开销和降低成本。但是 Kubernetes HPA 并不关注这种场景,因此也不会提供这种能力支持的。

3.容量规划问题


我们在做传统应用的机器配置选型时,一般是按照应用进行分配的,但是在容器尤其 Serverless 的场景中,开发者是无需关心底层的资源的,这时候就会缺少实际的容量规划这一步,导致在 Kubernetes 中对于每个节点的预留资源阈值而言,很有可能会造成小节点预留资源过低,无法满足计算需求,而大节点的预留又过高而造成资源浪费的情形。

4.资源分配碎片问题


在同一个 Kubernetes 集群中,不同规格的机器、不同的场景容量规划可能会有比较大的差异,那么集群伸缩的百分比会存在较大的不一致性与误导性。如果存在 4c8g 和 16c32g 两种规格的 Pod,在缩容的场景下,为了保证缩容后集群的稳定性,如果我们按照统一的资源利用率来判定缩容机器的标准,那么很有可能造成大规格的机器被缩容后,容器重新调度后的争抢饥饿问题。如果配置优先缩容小规格的机器,就会造成小规格机器的大量冗余。

5.资源利用率问题


当一个 Pod 资源利用率很低时,不代表就可以侵占它所申请的资源。在大部分线上业务场景中,资源的利用率都不会保持着一个很高的水位,但是从 Kubernetes 的调度原则中来说,资源的利用又应该保持在一个较高的水位,这样才能避免资源的浪费,这两者间存在着矛盾性,如果权衡是个比较大的难题。

闲鱼 Serverless 化实践中弹性伸缩挑战


除了上述的 Kubernetes 中遇到的典型难题外,闲鱼在对服务端架构 Serverless 化的探索过程中还遇到了其他的一些困难点,影响自动弹性伸缩能力的落地。

1.Runtime 冷启动时延问题


业务场景中会经常遇到流量突发情况,大部分的非业务形态的系统故障也都是由流量突增引起的,这就要求 Serverless 具备秒级弹性的能力,如果扩容时间过长,可能流量峰值已经一闪而过,扩容就显得毫无意义。而影响扩容时长的一个重要步骤就是 Runtime 的冷启动,不同特性的语言 Runtime 冷启动的时长有比较大的差别,比如用 Nodejs / python 等语言实现的纯净的 Runtime,冷启动完全可以控制在 2s 以内。但是在我们闲鱼内部的业务场景中,为了兼容原有应用框架,复用弹内的中间件和中台能力,我们有很多是用 Java 语言基于 Spring 框架实现的 Serverless,冷启动要经历 Spring&Pandora 启动、插件加载、中间件 Client 的初始化、Bean 初始化等过程,秒级启动几乎是不可能的。

2.上游依赖容量评估问题


如果仅是针对一个独立的应用进行扩容,风险相对还是可控的,但是往往一个 Serverless 应用都会有多个上游依赖,这个依赖或是领域服务,或是数据存储 BaaS 服务等。当某个核心链路比如交易下单应用流量突增,我们需要将提供该服务的 Serverless 应用的资源扩容,但仅扩容该应用是远远不够的,因为上游查询商品领域服务的依赖应用也必然出现流量突增状况,相应的我们也需要对该领域服务进行重新的流量评估并扩容,这就大大加剧了扩容问题的复杂度。

3.流量高峰的资源分配问题


闲鱼大部分核心服务的流量时间分布还是相对比较集中的,弹性伸缩场景下,在流量峰值到达时这些应用都需要进行扩容操作,但是 Serverless 基于 Pod 的扩容都是存在一个比较固定的 Pod 池的,这就要求 Pod 池的容量 Buffer 要基于整个闲鱼业务流量峰值来设定,如果容量评估不足,会造成高峰期资源竞争饥饿现象,而容量评估过高时,又会导致在大多数的非高峰期间内的资源浪费现象。当然,如果存在错峰的业务场景并且相应的峰值流量比较平衡时,这个问题就不复存在了。

弹性伸缩方案实践


弹性按阶段可划分为从 0 到 1 的 Zero-Scaler 阶段以及从 1 到 N 的扩容阶段,目前业内大部分的实践场景都是围绕着从 1 到 N 的弹性扩容方案展开的,关键技术点包括资源池化、容量评估决策、弹性调度、智能自动化、稳定性保障等,而从 0 到 1 则主要关注从资源的分配到应用的冷启动的加速实践,下面会针对几个典型的弹性系统进行介绍。


菜鸟弹性调度系统

业务场景


菜鸟的系统应用主要是协调商家、CP、消费者之间的信息流转,而且物流订单流转的长链路多交互的特定也决定了信息流大于实操流,因此系统面临的导购秒杀型的脉冲峰值场景非常稀有。核心应用也大都属于无状态的在线计算型应用,业务峰谷值差距明显,这就为弹性伸缩的落地提供足够的场景支撑。

方舟弹性调度方案



方舟弹性调度提出了一种闭环反馈式的模式,弹性调度基础能力基于应用分组运行情况和不同应用分组的策略配置参数,做出扩缩容决策,并通过方舟的容器操作服务调整集群容器数量;应用分组集群受到集群容器数量变化的影响,会产生不同的表现行为(例如扩容时集群平均 CPU 使用率会发生变化,服务 rt 会在一定范围内下降等);应用分组的表现在以实时数据提供给弹性决策的同时,也会进行历史数据的离线存储;自动策略配置会周期性获取这些历史数据,并依照一定的算法,对不同的应用分组进行不同的策略配置,从而再次影响到弹性调度策略的决策。


这种模式具备一定的自我进化能力,当应用分组刚接入弹性时,大多数策略都是默认指定的,而当弹性运行一段时间后,结合自动评估方式,各种参数会得到不断的修正以达到更好的弹性效果。而且,这种模式能以更高的抽象层次来进行海量参数的配置,以解决普遍问题。

方舟弹性调度架构体系



方舟弹性调度采用三层决策模型,分别是策略决策、聚合决策和执行决策,解决了计算的无状态、幂等和高可用的问题,决策策略支持快速横向扩展,目前已上线的策略包括资源安全策略、资源优化策略、时间策略、服务安全策略等。


目前方舟弹性调度系统能解决实际场景中毛刺问题,能实现整条链路的容量弹性伸缩,面对大促场景也能游刃有余,但是在处理无规律脉冲型流量的应用时,还是存在很大的缺陷的。

新浪微博弹性实践

业务场景


新浪微博总是在特定的时间和特定的事件发生时引来流量高峰,常见的峰值场景为日常的晚高峰、各种运营活动以及明星大 V 的热门微博带来的流量高峰、极端突发事件引起的流量陡增。这些场景的流量特点可以总结为瞬间峰值高和互动时间短。

微博自动弹性伸缩方案


无人值守的扩缩容的三个核心技术是弹性伸缩、故障迁移和服务自动回收,与之对应的是模板中的原子型 API。



在平台扩容时需要向混合云平台发起请求,平台进行资源评估,如果配额足够,可以按照配额量申请,如果配额不足时,需要申请配额,防止资源滥用。上述步骤可以抽象成原子型 API 任务,以支持自动化的实现。目前新浪研发了一套原子型 API 任务分发系统,它在每台机器上都有一个 Agent,在中心化组件 Dispatch 端根据任务模板定义任务,并最终对外提供 API。


在容量决策方面,该方案支持两种决策方式,一种是定时触发,根据自动压测的指标和经验值触发进行,另一种是自动触发,通过分析业务指标,对容量预估进行同比和环比分析自动进行扩缩容操作。

阿里云平台解决容器资源按需分配的实践


核心痛点是不合理的资源初始化分配和应用容器资源竞争的稳定性问题,以及潮汐应用分时复用和减少资源碎片的资源利用率问题。交付目标是既要稳定性,也要利用率,还要自动化实施和智能化。

方案设计


最初的工具流程设计:当一个应用面临很高的业务访问需求时,体现在 CPU、Memory 或其他资源类型需求量变大,我们根据 Data Collector 采集的实时基础数据,利用 Data Aggregator 生成某个容器或整个应用的画像,再将画像反馈给 Policy engine。Policy engine 会瞬时快速修改容器 Cgroup 文件目录下的的参数。这种方案对 Kubelet 进行了侵入式的修改,每次 Kubernetes 升级对于 Policy engine 相关组件升级也是一种挑战。


因此需要将 Kubelet 解耦开,可以将关键应用容器化,这样可以不侵入式修改 Kubernetes 核心组件、支持快速迭代、借助 Kubernetes 相关 QoS Class 机制,容器资源配置和资源开销可控。



这其中,最为关键的就是策略引擎(Policy engine)的设计,Policy engine 是单机节点上进行智能调度并执行 Pod 资源调整的核心组件。它主要包括 api server,指挥中心 command center 和执行层 executor,设计如下图所示。


该方案通过分时复用以及将不同优先级的容器(即在线和离线任务)混合部署,并且通过对容器资源限制的动态调整,保证了在线应用在不同负载情况下都能得到足够的资源,从而提高集群的综合资源利用率。通过对单机节点上的容器资源的智能化动态调整,降低了应用间的性能干扰,保障高优先级应用的性能稳定。各种资源调整策略可以自动化地、智能化地在节点上运行,从而降低运维成本。

阿里 CSE 的 Serverless 弹性实践


上述的几种弹性伸缩实践都是关注于从 1 到 N 的弹性方案,但是往往在实际的弹性场景中从 0 到 1 才是最为关键的技术难点,这其中解决如何将应用冷启动速度加速到毫秒级的问题至关重要。

技术方案


阿里 CSE 团队在解决应用启动加速的问题上沉淀了丰富的经验:


方案一:应用冷启动资源压缩方案




方案二:应用热复制启动加速方案


L1 采用通过 fork 种子进程达到快速启动的效果,操作系统团队专门为此开发了 Fork2 技术,与 linux native fork 的关键区别是可以指定 PID 来 fork 一个进程,L2 的单个 SNAPSHOT 可以创建多个进程,一对多关系。Fork2 在本地进程的复制场景中还是非常快速的,但是仅适用于本地 Fork,而且对于 Scale To Zero 场景也不支持,这时就需要一种支持水平扩容和从 0 到 1 扩容的策略,Local Storage 技术方案主要用于解决这种问题,它是一种基于 CRIU 的进程级热复制技术。此外,CSE 在应用的热复制的技术探索之路中还提出一种新的弹性技术方案(Zizz),Zizz 的核心是热备,基于离线的实例功耗非常低的假设,研发出一种基于弹性堆的低功耗技术、基于内核态和用户态的 Swap 能力的内存弹性技术以及基于 ASI 的 Inplace Update 的实例规格动态升降技术,并通过 Kubernetes 自定义 CRD 的方式进行能力输出。


综合来看这两种方案,方案一的适用场景更广,但是每种语言的 VM 要单独定制,实现成本更高;方案二会存在 UUID 问题,如开发者希望应用每个实例启动都赋值一个 UUID 给一个静态变量,优势是语言无关、方案更容易实现,适用于 FaaS 类场景。


CSE 与 AWS Lambda 的差异


Lambda 为了做到快速扩缩容,要求用户的应用以 Function 为单位开发,Lambda Runtime 动态加载 Function 来快速增加实例。而 CSE 通过将一个应用的多个实例启动后,共享相同的指令数据,抽取出不同的指令数据,每次启动实例只需要加载多实例的差异部分,可以透明兼容社区主流技术栈。

总结


通过上述弹性伸缩的调研结果以及我们已经探索的一些实践经验,资源池化、弹性调度、容量决策、运维自动化等都已经具备相对比较成熟的解决方案了,基于 Kubernetes 所提供的基础能力以及各自业务场景所产出的数据模型所构建的弹性系统能从容应对大多数的弹性需求,但是如何更快、更智能化、更安全的让业务 Pod 弹起来仍然有很长的路要走。


目前,闲鱼团队在对传统胶水层应用做自动拆分 FaaS 化,另外我们还计划将一些底层的中间件和中台服务剥离开集中治理,这样能使得业务应用更加的轻量化,从而加速应用启动时长,更有利于弹性伸缩。


文章转载自:闲鱼技术(ID:XYtech_Alibaba)

原文链接:Serverless弹性伸缩的现状调研

2020 年 12 月 23 日 08:001067

评论

发布
暂无评论
发现更多内容

【融云技术】超大规模并发下自定义属性的设置与分发

融云 RongCloud

Java日志的心路历程

程序猿阿星

Java log4j logback log4j2框架 Java日志

获5项大奖,发布《云计算开放应用架构标准》,阿里云持续领航云原生

阿里巴巴中间件

Activiti工作流框架中的任务调度!工作流框架中的任务流程元素详解,使用监听器监听任务执行

攻城狮Chova

事件监听 任务 6 月日更

GitHub火到糊!这份阿里内部10W字Java面试总结,让你薪资翻倍

Java架构追梦

Java 架构 阿里巴巴面试 跳槽 10W字面试题

一文回顾 Java 入门知识(中)

逆锋起笔

Java JAVA开发 后端开发 java基础 javase

ETL工程师必看!超实用的任务优化与断点执行方案

会飞的鱼

大数据 ETL算法 ETL ETL任务 ETL系统

踩准时钟节拍、玩转时间转换,鸿蒙轻内核时间管理有妙招

华为云开发者社区

鸿蒙 时间管理 计数器 时间转换 计时

从一面就被拒到收割字节offer,我花了一年时间,功夫不负有心人

Java架构师迁哥

撸掉隔壁工位的新员工引发的血案

Machine Gun

网络安全 Web 信息安全 渗透测试

亮相Google I/O,字节跳动是这样应用Flutter的

字节跳动技术团队

华为云IoT设备接入服务全体验

华为云开发者社区

物联网 IoT 华为云 智能IoT边缘服务 华为云IoT云服务

精通springcloud:消息驱动的微服务,了解Spring Cloud Stream

菜菜山

Java 架构 微服务

简直人生外挂,跪谢这份性能调优实战指南,直接涨薪20K!

Crud的程序员

Java 程序员 架构 Java性能优化

新手小白必须知道的Linux基础:常用命令(1)

学神来啦

Linux linux命令 linux运维 linux 文件权限控制 Linux教程

GitHub上标星75k+超牛的《Java面试突击版》,分享PDF离线版

周老师

Java 编程 程序员 架构 面试

【案例】构建应急指挥体系,实现生产过程实时监控

星环科技

Overbit Flash|5 月加密货币市场风暴抹去了 90% 以上的 NFT 交易量

Overbit学院

比特币 加密货币 NFT Overbit 保证金交易

Qcon全球软件开发大会 融云分享SDK交付质量保障经验

融云 RongCloud

什么是交叉编译

IT蜗壳-Tango

IT蜗壳教学 6 月日更

《Java开发手册灵魂13问》正式上线,带你剖析阿里巴巴的开发细节

周老师

Java 编程 程序员 架构 面试

消费者对户外广告的条件反射你知道吗?

󠀛Ferry

6月日更

前后端分离浅析以及分离教程

北游学Java

前后

毕业5年的同学突然告诉我,他已经是年薪50W的Java架构师了

Java架构师迁哥

和12岁小同志搞创客开发:如何驱动各类型传感器?

不脱发的程序猿

DIY 传感器 如何驱动各类型传感器? 创客

金三银四结束了,阿里大牛所有的大厂Java面试题都整理出来,在Git标星68K

菜菜山

Java 程序员 架构 面试

☕【JVM技术之旅】全流程化分析Java对象的创建过程

李浩宇/Alex

JVM 6月日更 6 月日更 对象布局 内存结构

难忘阿里,4面技术5面HR附加笔试面,走的真艰难真心酸

你看起来很好吃

Java 编程 程序员 面试 架构师

重点人员动态管控系统开发方案,公安可视化大数据分析平台建设

WX13823153201

「Adobe国际认证」运用“对象选择”工具,在Adobe Photoshop中选择主体

Adobe国际认证

为鸿蒙OS说两句公道话(我对鸿蒙OS的一些看法)

Phoenix

Serverless弹性伸缩的现状调研-InfoQ