2019 双 11,支付宝有哪些“秘密武器”?

阅读数:33 2019 年 11 月 26 日 11:34

2019双11,支付宝有哪些“秘密武器”?

2019 双 11,支付宝参战的第十一年。

与十一年前相比,双 11 的许多东西都改变了。比如金额——2684 亿,差不多是十一年前的 5000 倍;比如流量——订单峰值 54.4 万笔 / 秒,曾经是想都不敢想的数字;再比如层出不穷的新技术,就是这些惊人数字背后的“秘密武器”,给迎战双 11 的战士们作最完备的武装。

也有始终不变的东西。大战来临前的紧张、不安、如履薄冰,对每一个细节反复 check 的“强迫症”,以及胜利之后的欣喜、释然、满心充实,和下一步砥砺前行。

支付宝的技术工作,就是“半年搞建设,半年搞大促”。虽然是一句戏言,但足够从侧面证明大促作为实践战场的重要性。而每当双 11 圆满落下帷幕,技术人也就到了收获的季节。那些历经双 11 大考的新技术,就像经历过了“成人式”一样,一一走到台前开始独当一面。

SOFAMesh:金融级云原生第一步

众所周知,金融机构因为肩负的责任重大,面对新技术时,普遍都是比较保守的。支付宝也不例外,尤其是在双 11 这种场景下,流量大,峰值高,平时不管多小的问题,在这时候都可能被放大成不得了的大问题。

于是,今年的大促迫在眉睫时,SOFAMesh 团队还在纠结。来自周围的各种声音,让他们感到压力很大。被问到的最多的问题,就是“这个靠不靠谱?”

一个“行”字,在双 11 的面前,可能有千钧之重。能不能扛过零点的流量峰值?能不能保障稳定?能不能保证不出差错?

Mesh 是一项很新的技术,社区开源项目本就不太成熟,而 SOFAMesh 是支付宝从第一行代码就开源加自主开发的项目,在金融级的严苛要求面前,在双 11 的极端场景之下,究竟行不行?谁心里都没有底。

然而此时不上,整整两年的心血就白费了。反过来说,如果能打赢这一仗,就证明云原生之路在双 11 这种体量的考验之下都是可行的,这对于整个行业而言,会是一个很好的标杆。

“蚂蚁金服要做金融行业技术的拓荒者和实践者。”资深技术专家杨海悌说。

这已不是蚂蚁金服第一次做“吃螃蟹的人”,在金融机构普遍依赖 IOE 时,他们率先开始探索分布式,现在分布式渐渐成为主流,他们又率先琢磨起云原生。

“以前都是业务推动技术,现在到了技术为业务提供红利的时候了。”对于自己看着长大的 SOFAMesh,杨海悌一面很有信心,一面也十分忐忑。

SOFAMesh 是支付宝针对金融行业的特殊需求而开发的金融级中间件,属于金融级云原生分布式框架 SOFAStack 的一部分,这个框架的开发始于 2009 年,几乎和双 11 同龄。

是骡子是马,总得遛过了才知道。SOFAMesh 的第一份答卷很快交了出来——以往分时复用的资源切换需要 4 小时,用上了 SOFAMesh 之后,不到 4 分钟。性能提升将近百倍。

分时复用,顾名思义,就是在不同的时间段里让同一个资源能够“复用”于多个应用。这一技术能够减少资源闲置,提高资源的利用效率。这一技术在 2018 年双 11 就曾立过功——当时,支付宝面对这天猫双 11 和自己的会员大促的“双大促”挑战,为了节约成本少采购一些资源,上线了分时调度 1.0,使用同一批资源同时支持两个大促,在支撑天猫双 11 和经济体用户增长两个大促的同时,IT 成本一分钱也没有涨。

但去年在弹性架构模式下做分时调度,切换资源需要重新配置和部署相关系统,4 个小时的切换时间,虽然成功支持了“双大促”,还是满足不了对短时间内快速调用资源有需求的业务。

到了今年,由于 SOFAMesh 的上线,切换资源不再需要重新部署,切换时间缩短到了 3 分 40 秒。这意味着,像蚂蚁森林那样每天都会面临流量小高峰的业务,无需事先留足资源余量,提前 10 分钟开始切换资源,都绰绰有余。

“将来,切换时间还有望缩短到秒级。”杨海悌说。

2019 年双 11,SOFAMesh 扮演了非常重要角色——100% 覆盖蚂蚁金服核心支付链路,几十万容器,峰值千万 QPS,平均 RT(响应时间) 0.2ms,是业界最大的 Service Mesh 集群。它在洪峰面前的稳定性和平滑性,以及对效率的显著提升,都是有目共睹的。

这张漂亮的成绩单背后,其实就是一个字——行。

“云原生”已经成为业界公认的技术趋势,它的目标是提升运维效率、降低资源使用成本、提升服务安全可靠性等。云原生带来的基础设施升级,为技术演进提供基础能力支撑,并且提升未来架构空间的想象力。2019 也是支付宝的金融级云原生落地元年,包括 SOFAMesh 在内的一系列云原生技术,经历双 11 的考验之后,向整个业界证明——我们行,云原生这条路,也行。

双 11 之后,蚂蚁金服举办的发布会上,副 CTO 胡喜宣布,会将 SOFAMesh 也对外公开。

正如“元年”一词所说,这只是蚂蚁金服在新的开拓之路上迈出的第一步。

OceanBase 2.2:世界纪录就是用来打破的

OceanBase 被人质疑“行不行”的次数,更是多到数不过来。

数据库是命脉,尤其是金融机构的数据库,出一点问题都是真金白银的问题,哪个业务都不敢冒风险,老老实实抱着老牌进口货 Oracle,图个太平。

但 Oracle 也没见过双 11 这种阵仗,随着双 11 的流量连年翻番,它的性能眼见着碰到了天花板。2014 年双 11 前的压测,Oracle 出现了 10% 的流量缺口。

OceanBase 感到机会来了。在那之前,他们已经“蛰伏”了四五年,没有固定的业务,最落魄的时候,甚至面临团队解散和项目取消的境况。

当时的 OceanBase 将满 5 岁,版本号却还是 0.x,外表看来甚至还是个 demo,一上来就要承接双 11 的 10% 的流量,相当于支付宝平日流量的最高峰,而且要做的还是最核心的交易系统——一分钱都不能出错的那种。

一时之间,“你们行不行”的质疑声此起彼伏。

“别人说我们不行的时候,我们都非常坚定地认为,行。”蚂蚁金服研究员杨传辉说。他是 OceanBase 开发团队的初期成员之一,亲眼见过 OceanBase 写下第一行代码。

从拿下 10% 的任务,到双 11 的正式大考,时间不足两周。最后十来天,资深运维专家师文汇带着全团队几乎不眠不休地做优化,硬是把长达 10 毫秒的响应时间降低到了 1 毫秒以下。

那一年的双 11,OceanBase 没出一个差错,一战成名。

今年的双 11,OceanBase 的版本号是 2.2。在为版本命名方面,他们的谨慎作风一如既往。

但是 OceanBase 的每一次版本迭代,发生的都是“脱胎换骨”的变化,自己创下的纪录,也由自己不断刷新——

2018 年双 11,基于 OceanBase 2.0 分区方案的架构正式上线,这一架构解决了数据库可扩展的瓶颈,将每秒交易的承载能力提升到百万级,并让性能提升了 50%。

50% 的提升不是个小数目,但更令人惊讶的是,仅仅一年之隔,在 2019 年的双 11 中,全新上线的 OceanBase2.2 版本,在 2.0 的基础上,又让性能提高了 50%。

就在今年的 10 月 3 日,权威机构国际事务处理性能委员会 TPC 披露:蚂蚁金服的分布式关系数据库 OceanBase,打破美国甲骨文公司保持了 9 年的世界纪录,登顶 TPC-C 榜单,同时也成为首个登上该榜单的中国数据库系统。

短短的一个月之后,在 2019 年双 11 的考场之上,OceanBase2.2 又再次刷新了数据库处理峰值,达 6100 万次 / 秒,创造了新的世界纪录。

在金融级核心数据库的严格要求之下,OceanBase 为何还能有这样跨越式的性能升级?

关键的秘密在于,OceanBase 背后是原生的分布式数据库设计以及 PAXOS 协议,通过水平扩展 x86 服务器就可以达到无限伸缩,支持大规模高并发的效果。

另一方面,今年为了进一步提升性能和降低延迟,OceanBase 还通过中间件的优化,自动将多条 SQL 聚合成轻量级的存储过程,这个过程让原本需要数十次 SQL 网络交互的任务降低为单次网络交互,整体 RT 降低了 20%。

现在,支付宝的业务已经 100% 跑在 OceanBase 上,作为我国第一个自研的金融级分布式数据库,经过六年的双 11 锤炼,它也已经具备了走出蚂蚁金服、走向更广阔天地的底气。

今年双 11 中,支付宝支付业务 100% 切换到 OceanBase 内置的 Oracle 兼容模式上,支持 Oracle 语法以及存储过程优化的同时,又兼具 OceanBase 的分布式能力,如分布式分区表、全局事务等,响应时间也更加平稳。双 11 之后,OceanBase2.2 也将正式公开发布。

“不过,在别人觉得我们什么都行的时候,我们反而会冷静下来,想想自己还有哪些不行的地方。”杨传辉说,对技术上一切未知的敬畏,才能让大家走得更远。

图智能:复杂金融关系的最优解

“过去很长一段时间图数据库和图计算一直停留在学术研究阶段,行业应用场景不多,是因为没有强的场景驱动,所以市场没有太多发展”, 蚂蚁金服计算存储首席架构师何昌华指出。但是反过来看,图相关的产品近年来热度不断攀升,其核心原因是因为强场景的驱动,特别是金融场景,它非常善于处理大量的、复杂的、关联的、多变的网状数据,通过节点和关联的数据模型去快速解决复杂的关系问题。

蚂蚁的一站式图平台的诞生,也有着鲜明的蚂蚁金服特色,同样是“被业务倒逼出来的”。

蚂蚁金服在 2014 年左右就开始跟进社区的图计算的研究,当时的团队在一些开源产品基础上进行了小规模的尝试,做了之后发现效果很好,图数据库能够很好地和金融、社交业务结合起来。但是,蚂蚁金服有着巨大的数据量,需要以分布式架构来支撑高并发的大数据量和大吞吐量,但当时无论是开源还是商业数据库产品都只是单机版,都难以适应蚂蚁金服如此大的数据量和复杂的环境。于是,艰难而又步步扎实的自研之路开始了。

最开始,要解决的是图数据的存储和在线查询的问题。

从数据量来看,分布式架构是唯一的选择。从满足金融场景高并发低延时的需求来看,选择原生图结构而非基于关系型数据库基础上封装图数据,成为必然。但也因为以上两点,导致整个开发难度大大增加。

从 2015 年初团队开始组建,经过“冬练三九、夏练三伏”的苦修,以及在代码、运维、稳定性等每一环节的极致追求,第一个图数据库版本 GeaBase 在 2016 年初发布。

而这时候,刚好遇到支付宝史上最大一次改版,模块化功能被替换成信息流,大大强化了社交关系属性,GeaBase 开始接入支付宝链路。

百炼成钢,经过几个月的压测,2016 年 6 月,新版支付宝上线,GeaBase 迎来了第一笔流量。接着几年,从支付宝大改版到新春红包再到双 11,GeaBase 迎来了业务的绽放期,到 2019 年双 11,GeaBase 双 11 主链路上单集群规模突破万亿边,点边查询突破 800 万 QPS,平均时延小于 10ms;成为支付宝核心链路上非常重要的一环;

数据存储和查询的问题解决了,紧接着要解决的是分析计算的问题。

在一开始,我们思考的是如何在海量的图数据里做数据挖掘的问题。在面对千亿乃至万亿级规模,几 TB 到几百 TB 的数据,用超大内存物理机和高速网络来实现离线全图计算,对企业来说不太现实,资源也存在极大的浪费。因此,我们重点放在如何在满足业务功能 / 性能需求的同时,利用碎片化的现有资源,实现 “按需计算”的能力。

因此,2017 年,我们在海量数据基础上,设计了一套离线计算的框架,提供自适应的分区策略,资源消耗能比同类产品降低一个数量级,同时性能还能远远优于 GraphX 等开源产品。

同时,为了方便业务算法人员根据其业务进行二次开发,还开放了 C++ 和 JAVA 的接口,除了业界常见的图编程框架的 Pregel、GAS,我们还做了一定的“微创新”和能力扩展,提供了更高性能,更加丰富功能的接口。

全量分析计算的事情解决了,但随着“310”策略的推进,风控业务的发展,对分析的时效性的要求越来越高,分析需要更快,更实时,2018 年,我们开始考虑在线图计算的能力。

有时候,并不是所有业务都需要进行复杂的图分析,而是在满足一定的条件后才开始进行子图的迭代计算。最后,基于图的迭代计算的结果,在进行数据链路的处理后再提供给在线使用。

因此,一个场景在完整的计算链路中,需要流计算和图计算两种模态的融合计算。我们打破了传统计算模态的边界,提供流图融合的计算系统。通过将数据流和控制流相结合,并提供动态 DAG 的能力,从而实现按需计算,弹性扩缩容。

用户可以通过一套统一的 DSL(SQL+Gremlin/GQL)、一套计算系统来实现完成流图融合的链路,实现基于数据驱动的在线图计算能力,同时,减少了用户的学习、运维成本。

在 2019 年双 11 上,在线图计算技术大放异彩,通过秒级决策,在花呗等场景帮助业务效果提升 12 倍。

从“海量”图存储,到离线全图 “按需计算”,再到“实时”在线图计算,蚂蚁的图智能技术跟随业务一步步发展,壮大。

融合计算引擎:新计算威力初现

今年的双 11 还落地应用了一套新的“神器”——融合计算引擎,它耗费了近百位工程师一整年的心血。

融合计算引擎的基础,是蚂蚁金服联合 UC Berkeley 大学推进的新一代计算引擎 Ray,它很年轻,2018 年融合计算引擎项目启动时,它只有几万行代码,距离金融级线上环境的应用还差得很远。

“我们用了一整年,把它增加到了几十万行代码,并且涵盖了 C++、java、Python 等所有语言。”蚂蚁金服资深技术专家周家英说。

至少 4 个团队在共同“养育”这个引擎,四个奶爸带娃,磕磕绊绊,在所难免,难度远远大于一个团队负责一个引擎。

但开发时的“难”,是为了应用时的“简”。

在计算引擎执行层面,不同计算模式的数据是可以在引擎内共享的,很少借助第三方存储,因此对外部存储和网络传输的开销也都有极大的节省。

在应用方面,融合计算引擎不仅能够解决金融场景中需要衔接多个不同计算模式的难题,还能支持各种不同时效性的业务,并在支付过程中提供秒级智能决策能力。

并且随着融合引擎的落地,也改变着技术同学的研发习惯。我们希望通过融合计算引擎,达成研发态,运行态,运维态三位一体的统一:例如在动态图计算场景,计算开发同学只需要编写一个流 + 图的计算作业,就可以实现秒级 6 度邻居的图迭代计算;同样在机器学习领域,通过编写一个包含流 + 模型训练 + 服务的计算作业,就可以实现端到端秒级模型导出的在线学习能力。这样从研发到运行态,计算整体效率都得到了极大提升。

2018 年,融合计算就在花呗反套现的智能甄别之中表现卓越。到了 2019 年,融合计算引擎已经在支付宝不同场景中落地——图计算在花呗,蚂蚁森林等场景中大规模上线,图数据库 Geabase 突破万亿边。

2019 年支付宝新春红包活动中,融合计算引擎用在线学习能力支持了新春红包的智能文案,让它的算法跑在了新的在线学习的体系上。这个体系融合了流计算和机器学习,让机器学习的模型迭代速度从以前的小时级别,提升到了现在的秒级别。本次双 11 时,它在“支日历”的推荐算法方面发挥了重要作用。

通过融合流计算、服务和并发查询,融合计算引擎减少了 60% 的机器资源使用,把端到端的延迟压低到了毫秒级,同时还能支持金融网络的业务查询和监控。

今年双 11 中,融合计算引擎在至少三个场景中成功落地并被验证可行,“还跑在了蚂蚁金融级关键决策链路上。”周家英不无兴奋,“这证明了我们的计算引擎具备了金融级的能力。”

事实上,无论是在双 11 这样的极端大考场景中,还是在支付宝、阿里巴巴,以及各个互联网科技公司的日常应用场景中,数据驱动的业务也越来越多。相应地,海量数据的实时处理、分析和应用,以及人工智能、深度学习等新技术的开发,都在要求着更强大的计算能力,以及能够应对复杂场景的多种计算模式。

面对未来,更多的是未知——我们尚且不知未来会出现什么样的场景,这些场景会要求什么样的计算模式和计算能力。“融合计算是真正意义上的新计算的第一步。”蚂蚁金服计算存储首席架构师何昌华说。

本文转载自公众号蚂蚁金服科技(ID:Ant-Techfin)。

原文链接:

https://mp.weixin.qq.com/s/wsQ_SMgXZ59cWLzOg_iD8g

评论

发布