两年Flink迁移之路:从standalone到on yarn,处理能力提升五倍

2019 年 8 月 27 日

两年Flink迁移之路:从standalone到on yarn,处理能力提升五倍

一、背景与痛点


在 2017 年上半年以前,TalkingData 的 App Analytics 和 Game Analytics 两个产品,流式框架使用的是自研的 td-etl-framework。该框架降低了开发流式任务的复杂度,对于不同的任务只需要实现一个 changer 链即可,并且支持水平扩展,性能尚可,曾经可以满足业务需求。


但是到了 2016 年底和 2017 年上半年,发现这个框架存在以下重要局限:


  1. 性能隐患:App Analytics-etl-adaptor和Game Analytics-etl-adaptor这两个模块相继在节假日出现了严重的性能问题(Full-GC),导致指标计算延迟;

  2. 框架的容错机制不足:依赖于保存在Kafka或ZK上的offset,最多只能达到at-least-once,而需要依赖其他服务与存储才能实现exactly-once,并且会产生异常导致重启丢数;

  3. 框架的表达能力不足: 不能完整的表达DAG图,对于复杂的流式处理问题需要若干依赖该框架的若干个服务组合在一起才能解决问题;


TalkingData 这两款产品主要为各类移动端 App 和游戏提供数据分析服务,随着近几年业务量不断扩大,需要选择一个性能更强、功能更完善的流式引擎来逐步升级我们的流式服务。调研从 2016 年底开始,主要是从 Flink、Heron、Spark streaming 中作选择。


最终,我们选择了 Flink,主要基于以下几点考虑:


  1. Flink的容错机制完善,支持Exactly-once;

  2. Flink已经集成了较丰富的streaming operator,自定义operator也较为方便,并且可以直接调用API完成stream的split和join,可以完整的表达DAG图;

  3. Flink自主实现内存管理而不完全依赖于JVM,可以在一定程度上避免当前的etl-framework的部分服务的Full-GC问题;

  4. Flink的window机制可以解决GA中类似于单日游戏时长\游戏次数分布等时间段内某个指标的分布类问题;

  5. Flink的理念在当时的流式框架中最为超前: 将批当作流的特例,最终实现批流统一;


二、演进路线


2.1 standalone-cluster (1.1.3->1.1.5->1.3.2)


我们最开始是以 standalone cluster 的模式部署。从 2017 年上半年开始,我们逐步把 Game Analytics 中一些小流量的 etl-job 迁移到 Flink,到 4 月份时,已经将产品接收各版本 SDK 数据的 etl-job 完全迁移至 Flink,并整合成了一个 job。形成了如下的数据流和 stream graph:



图 1. Game Analytics-etl-adaptor 迁移至 Flink 后的数据流图



图 2. Game Analytics-etl 的 stream graph


在上面的数据流图中,flink-job 通过 Dubbo 来调用 etl-service,从而将访问外部存储的逻辑都抽象到了 etl-service 中,flink-job 则不需考虑复杂的访存逻辑以及在 job 中自建 Cache,这样既完成了服务的共用,又减轻了 job 自身的 GC 压力。


此外我们自构建了一个 monitor 服务,因为当时的 1.1.3 版本的 Flink 可提供的监控 metric 少,而且由于其 Kafka-connector 使用的是 Kafka08 的低阶 API,Kafka 的消费 offset 并没有提交的 ZK 上,因此我们需要构建一个 monitor 来监控 Flink 的 job 的活性、瞬时速度、消费淤积等 metric,并接入公司 owl 完成监控告警。


这时候,Flink 的 standalone cluster 已经承接了来自 Game Analytics 的所有流量,日均处理消息约 10 亿条,总吞吐量达到 12TB 每日。到了暑假的时候,日均日志量上升到了 18 亿条每天,吞吐量达到了约 20TB 每日,TPS 峰值为 3 万。


在这个过程中,我们又遇到了 Flink 的 job 消费不均衡、在 standalone cluster 上 job 的 deploy 不均衡等问题,而造成线上消费淤积,以及集群无故自动重启而自动重启后 job 无法成功重启。(我们将在第三章中详细介绍这些问题中的典型表现及当时的解决方案。)


经过一个暑假后,我们认为 Flink 经受了考验,因此开始将 App Analytics 的 etl-job 也迁移到 Flink 上。形成了如下的数据流图:



图 3. App Analytics-etl-adaptor 的标准 SDK 处理工作迁移到 Flink 后的数据流图



图 4. App Analytics-etl-flink job 的 stream graph


2017 年 3 月开始有大量用户开始迁移至统一的 JSON SDK,新版 SDK 的 Kafka topic 的峰值流量从年中的 8K/s 上涨至了年底的 3W/s。此时,整个 Flink standalone cluster 上一共部署了两款产品的 4 个 job,日均吞吐量达到了 35TB。


这时遇到了两个非常严重的问题:


  1. 同一个standalone cluster中的job相互抢占资源,而standalone cluster的模式仅仅只能通过task slot在task manager的堆内内存上做到资源隔离。同时由于前文提到过的Flink在standalone cluster中deploy job的方式本来就会造成资源分配不均衡,从而会导致App Analytics线流量大时而引起Game Analytics线淤积的问题;

  2. 我们的source operator的并行度等同于所消费Kafka topic的partition数量,而中间做etl的operator的并行度往往会远大于Kafka的partition数量。因此最后的job graph不可能完全被链成一条operator chain,operator之间的数据传输必须通过Flink的network buffer的申请和释放,而1.1.x 版本的network buffer在数据量大的时候很容易在其申请和释放时造成死锁,而导致Flink明明有许多消息要处理,但是大部分线程处于waiting的状态导致业务的大量延迟。


这些问题逼迫着我们不得不将两款产品的 job 拆分到两个 standalone cluster 中,并对 Flink 做一次较大的版本升级,从 1.1.3(中间过度到 1.1.5)升级成 1.3.2。最终升级至 1.3.2 在 18 年的 Q1 完成,1.3.2 版本引入了增量式的 checkpoint 提交并且在性能和稳定性上比 1.1.x 版本做了巨大的改进。升级之后,Flink 集群基本稳定,尽管还有消费不均匀等问题,但是基本可以在业务量增加时通过扩容机器来解决。


2.2 Flink on yarn (1.7.1)


因为 standalone cluster 的资源隔离做的并不优秀,而且还有 deploy job 不均衡等问题,加上社区上使用 Flink on yarn 已经非常成熟,因此我们在 18 年的 Q4 就开始计划将 Flink 的 standalone cluster 迁移至 Flink on yarn 上,并且 Flink 在最近的版本中对于 batch 的提升较多,我们还规划逐步使用 Flink 来逐步替换现在的批处理引擎。



图 5. Flink on yarn cluster 规划


如图 5,未来的 Flink on yarn cluster 将可以完成流式计算和批处理计算,集群的使用者可以通过一个构建 service 来完成 stream/batch job 的构建、优化和提交,job 提交后,根据使用者所在的业务团队及服务客户的业务量分发到不同的 yarn 队列中,此外,集群需要一个完善的监控系统,采集用户的提交记录、各个队列的流量及负载、各个 job 的运行时指标等等,并接入公司的 OWL。


从 19 年的 Q1 开始,我们将 App Analytics 的部分 stream job 迁移到了 Flink on yarn 1.7 中,又在 19 年 Q2 前完成了 App Analytics 所有处理统一 JSON SDK 的流任务迁移。当前的 Flink on yarn 集群的峰值处理的消息量达到 30W/s,日均日志吞吐量达约到 50 亿条,约 60TB。在 Flink 迁移到 on yarn 之后,因为版本的升级性能有所提升,且 job 之间的资源隔离确实优于 standalone cluster。迁移后我们使用 Prometheus+Grafana 的监控方案,监控更方便和直观。


我们将在后续将 Game Analytics 的 Flink job 和日志导出的 job 也迁移至该 on yarn 集群,预计可以节约 1/4 的机器资源。


三、重点问题的描述与解决


在 Flink 实践的过程中,我们一路上遇到了不少坑,我们挑出其中几个重点坑做简要讲解。


1. 少用静态变量及 job cancel 时合理释放资源


在我们实现 Flink 的 operator 的 function 时,一般都可以继承 AbstractRichFunction,其已提供生命周期方法 open()/close(),所以 operator 依赖的资源的初始化和释放应该通过重写这些方法执行。当我们初始化一些资源,如 spring context、dubbo config 时,应该尽可能使用单例对象持有这些资源且(在一个 TaskManager 中)只初始化 1 次,同样的,我们在 close 方法中应当(在一个 TaskManager 中)只释放一次。


static 的变量应该慎重使用,否则很容易引起 job cancel 而相应的资源没有释放进而导致 job 重启遇到问题。规避 static 变量来初始化可以使用 org.apache.flink.configuration.Configuration(1.3)或者 org.apache.flink.api.java.utils.ParameterTool(1.7)来保存我们的资源配置,然后通过 ExecutionEnvironment 来存放(Job 提交时)和获取这些配置(Job 运行时)。


示例代码:


Flink 1.3


设置及注册配置


*StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();**Configuration parameters = new Configuration();**parameters.setString("zkConnects", zkConnects);**parameters.setBoolean("debug", debug);**env.getConfig().setGlobalJobParameters(parameters);*
复制代码


获取配置(在 operator 的 open 方法中)


*@Override**public void open(Configuration parameters) throws Exception {*
- super.open(parameters);*- ExecutionConfig.GlobalJobParameters globalParams = getRuntimeContext().getExecutionConfig().getGlobalJobParameters();*- Configuration globConf = (Configuration) globalParams;*- debug = globConf.getBoolean("debug", false);*- String zks = globConf.getString("zkConnects", "");*- //.. do more ..*
*}*
复制代码


Flink 1.7


设置及注册配置


*ParameterTool parameters = ParameterTool.fromArgs(args);*
*// set up the execution environment**final ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();**env.getConfig().setGlobalJobParameters(parameters);*
复制代码


获取配置


public static final class Tokenizer extends RichFlatMapFunction<String, Tuple2<String, Integer>> {
@Overridepublic void flatMap(String value, Collector<Tuple2<String, Integer>> out) {

ParameterTool parameters = (ParameterTool)
getRuntimeContext().getExecutionConfig().getGlobalJobParameters();

parameters.getRequired("input"); // .. do more ..

复制代码


2. NetworkBuffer 及 operator chain


如前文所述,当 Flink 的 job 的上下游 Task(的 subTask)分布在不同的 TaskManager 节点上时(也就是上下游 operator 没有 chained 在一起,且相对应的 subTask 分布在了不同的 TaskManager 节点上),就需要在 operator 的数据传递时申请和释放 network buffer 并通过网络 I/O 传递数据。


其过程简述如下:上游的 operator 产生的结果会通过 RecordWriter 序列化,然后申请 BufferPool 中的 Buffer 并将序列化后的结果写入 Buffer,此后 Buffer 会被加入 ResultPartition 的 ResultSubPartition 中。ResultSubPartition 中的 Buffer 会通过 Netty 传输至下一级的 operator 的 InputGate 的 InputChannel 中,同样的,Buffer 进入 InputChannel 前同样需要到下一级 operator 所在的 TaskManager 的 BufferPool 申请,RecordReader 读取 Buffer 并将其中的数据反序列化。BufferPool 是有限的,在 BufferPool 为空时 RecordWriter/RecordReader 所在的线程会在申请 Buffer 的过程中 wait 一段时间,具体原理可以参考:[1], [2]。


简要截图如下:



图 6. Flink 的网络栈, 其中 RP 为 ResultPartition、RS 为 ResultSubPartition、IG 为 InputGate、IC 为 inputChannel。


在使用 Flink 1.1.x 和 1.3.x 版本时,如果我们的 network buffer 的数量配置的不充足且数据的吞吐量变大的时候,就会遇到如下现象:



图 7. 上游 operator 阻塞在获取 network buffer 的 requestBuffer()方法中



图 8. 下游的 operator 阻塞在等待新数据输入



图 9. 下游的 operator 阻塞在等待新数据输入


我们的工作线程(RecordWriter 和 RecordReader 所在的线程)的大部分时间都花在了向 BufferPool 申请 Buffer 上,这时候 CPU 的使用率会剧烈的抖动,使得 Job 的消费速度下降,在 1.1.x 版本中甚至会阻塞很长的一段时间,触发整个 job 的背压,从而造成较严重的业务延迟。


这时候,我们就需要通过上下游 operator 的并行度来计算 ResultPartition 和 InputGate 中所需要的 buffer 的个数,以配置充足的 taskmanager.network.numberOfBuffers。



图 10. 不同的 network buffer 对 CPU 使用率的影响


当配置了充足的 network buffer 数时,CPU 抖动可以减少,Job 消费速度有所提高。


在 Flink 1.5 之后,在其 network stack 中引入了基于信用度的流量传输控制(credit-based flow control)机制[2],该机制大限度的避免了在向 BufferPool 申请 Buffer 的阻塞现象,我们初步测试 1.7 的 network stack 的性能确实比 1.3 要高。


但这毕竟还不是最优的情况,因为如果借助 network buffer 来完成上下游的 operator 的数据传递不可以避免的要经过序列化/反序列化的过程,而且信用度的信息传递有一定的延迟性和开销,而这个过程可以通过将上下游的 operator 链成一条 operator chain 而避免。


因此我们在构建我们流任务的执行图时,应该尽可能多的让 operator 都 chain 在一起,在 Kafka 资源允许的情况下可以扩大 Kafka 的 partition 而使得 source operator 和后继的 operator 链在一起,但也不能一味扩大 Kafka topic 的 partition,应根据业务量和机器资源做好取舍。更详细的关于 operator 的 training 和 task slot 的调优可以参考: [4]。


3. Flink 中所选用序列化器的建议


在上一节中我们知道,Flink 的分布在不同节点上的 Task 的数据传输必须经过序列化/反序列化,因此序列化/反序列化也是影响 Flink 性能的一个重要因素。Flink 自有一套类型体系,即 Flink 有自己的类型描述类(TypeInformation)。Flink 希望能够掌握尽可能多的进出 operator 的数据类型信息,并使用 TypeInformation 来描述,这样做主要有以下 2 个原因:


  1. 类型信息知道的越多,Flink可以选取更好的序列化方式,并使得Flink对内存的使用更加高效;

  2. TypeInformation内部封装了自己的序列化器,可通过createSerializer()获取,这样可以让用户不再操心序列化框架的使用(例如如何将他们自定义的类型注册到序列化框架中,尽管用户的定制化和注册可以提高性能)。


总体上来说,Flink 推荐我们在 operator 间传递的数据是 POJOs 类型,对于 POJOs 类型,Flink 默认会使用 Flink 自身的 PojoSerializer 进行序列化,而对于 Flink 无法自己描述或推断的数据类型,Flink 会将其识别为 GenericType,并使用 Kryo 进行序列化。Flink 在处理 POJOs 时更高效,此外 POJOs 类型会使得 stream 的 grouping/joining/aggregating 等操作变得简单,因为可以使用如:dataSet.keyBy(“username”) 这样的方式直接操作数据流中的数据字段。


除此之外,我们还可以做进一步的优化:


  1. 显示调用returns方法,从而触发Flink的Type Hint:

  2. dataStream.flatMap(new MyOperator()).returns(MyClass.class)

  3. returns方法最终会调用TypeExtractor.createTypeInfo(typeClass) ,用以构建我们自定义的类型的TypeInformation。createTypeInfo方法在构建TypeInformation时,如果我们的类型满足POJOs的规则或Flink中其他的基本类型的规则,会尽可能的将我们的类型“翻译”成Flink熟知的类型如POJOs类型或其他基本类型,便于Flink自行使用更高效的序列化方式。


*//org.apache.flink.api.java.typeutils.PojoTypeInfo*
*@Override**@PublicEvolving**@SuppressWarnings("unchecked")**public TypeSerializer<T> createSerializer(ExecutionConfig config) {*
- if (config.isForceKryoEnabled()) {*- return new KryoSerializer<>(getTypeClass(), config);*- }*- if (config.isForceAvroEnabled()) {*- return AvroUtils.getAvroUtils().createAvroSerializer(getTypeClass());*- }*- return createPojoSerializer(config);*
*}*
复制代码


对于 Flink 无法“翻译”的类型,则返回 GenericTypeInfo,并使用 Kryo 序列化:


*//org.apache.flink.api.java.typeutils.TypeExtractor*
*@SuppressWarnings({ "unchecked", "rawtypes" })**private <OUT,IN1,IN2> TypeInformation<OUT> privateGetForClass(Class<OUT> clazz, ArrayList<Type> typeHierarchy,*
- ParameterizedType parameterizedType, TypeInformation<IN1> in1Type, TypeInformation<IN2> in2Type) {*- checkNotNull(clazz);*- // 尝试将 clazz转换为 PrimitiveArrayTypeInfo, BasicArrayTypeInfo, ObjectArrayTypeInfo*- // BasicTypeInfo, PojoTypeInfo 等,具体源码已省略*- //...*- *- //如果上述尝试不成功 , 则return a generic type*- return new GenericTypeInfo<OUT>(clazz);*
*}*
复制代码


  1. 注册subtypes: 通过StreamExecutionEnvironment或ExecutionEnvironment的实例的registerType(clazz)方法注册我们的数据类及其子类、其字段的类型。如果Flink对类型知道的越多,性能会更好;

  2. 如果还想做进一步的优化,Flink还允许用户注册自己定制的序列化器,手动创建自己类型的TypeInformation,具体可以参考Flink官网:[3];


在我们的实践中,最初为了扩展性,在 operator 之间传递的数据为 JsonNode,但是我们发现性能达不到预期,因此将 JsonNode 改成了符合 POJOs 规范的类型,在 1.1.x 的 Flink 版本上直接获得了超过 30%的性能提升。在我们调用了 Flink 的 Type Hint 和 env.getConfig().enableForceAvro()后,性能得到进一步提升。这些方法一直沿用到了 1.3.x 版本。


在升级至 1.7.x 时,如果使用 env.getConfig().enableForceAvro()这个配置,我们的代码会引起校验空字段的异常。因此我们取消了这个配置,并尝试使用 Kyro 进行序列化,并且注册我们的类型的所有子类到 Flink 的 ExecutionEnvironment 中,目前看性能尚可,并优于旧版本使用 Avro 的性能。但是最佳实践还需要经过比较和压测 KryoSerializer\AvroUtils.getAvroUtils().createAvroSerializer\PojoSerializer 才能总结出来,大家还是应该根据自己的业务场景和数据类型来合理挑选适合自己的 serializer。


  1. Standalone模式下job的deploy与资源隔离共享


结合我们之前的使用经验,Flink 的 standalone cluster 在发布具体的 job 时,会有一定的随机性。举个例子,如果当前集群总共有 2 台 8 核的机器用以部署 TaskManager,每台机器上一个 TaskManager 实例,每个 TaskManager 的 TaskSlot 为 8,而我们的 job 的并行度为 12,那么就有可能会出现下图的现象:



第一个 TaskManager 的 slot 全被占满,而第二个 TaskManager 只使用了一半的资源!资源严重不平衡,随着 job 处理的流量加大,一定会造成 TM1 上的 task 消费速度慢,而 TM2 上的 task 消费速度远高于 TM1 的 task 的情况。假设业务量的增长迫使我们不得不扩大 job 的并行度为 24,并且扩容 2 台性能更高的机器(12 核),在新的机器上,我们分别部署 slot 数为 12 的 TaskManager。经过扩容后,集群的 TaskSlot 的占用可能会形成下图:



新扩容的配置高的机器并没有去承担更多的 Task,老机器的负担仍然比较严重,资源本质上还是不均匀!


除了 standalone cluster 模式下 job 的发布策略造成不均衡的情况外,还有资源隔离差的问题。因为我们在一个 cluster 中往往会部署不止一个 job,而这些 job 在每台机器上都共用 JVM,自然会造成资源的竞争。起初,我们为了解决这些问题,采用了如下的解决方法:


  1. 将TaskManager的粒度变小,即一台机器部署多个实例,每个实例持有的slot数较少;

  2. 将大的业务job隔离到不同的集群上。


这些解决方法增加了实例数和集群数,进而增加了维护成本。因此我们决定要迁移到 on yarn 上,目前看 Flink on yarn 的资源分配和资源隔离确实比 standalone 模式要优秀一些。


四、总结与展望


Flink 在 2016 年时仅为星星之火,而只用短短两年的时间就成长为了当前最为炙手可热的流处理平台,而且大有统一批与流之势。经过两年的实践,Flink 已经证明了它能够承接 TalkingData 的 App Analytics 和 Game Analytics 两个产品的流处理需求。接下来我们会将更复杂的业务和批处理迁移到 Flink 上,完成集群部署和技术栈的统一,最终实现图 5 中 Flink on yarn cluster 的规划,以更少的成本来支撑更大的业务量。


参考资料:


[1] https://cwiki.apache.org/confluence/display/FLINK/Data+exchange+between+tasks


[2] https://flink.apache.org/2019/06/05/flink-network-stack.html


[3] https://ci.apache.org/projects/flink/flink-docs-release-1.7/dev/types_serialization.html#type-hints-in-the-java-api


[4] https://mp.weixin.qq.com/s/XROoLEu38e46PlBAcepaTg


作者简介:


肖强:TalkingData 资深工程师,TalkingData 统计分析产品 App Analytics 和 Game Analytics 技术负责人。硕士毕业于北京航空航天大学,主要从事大数据平台开发,对流式计算和分布式存储有一定研究。


2019 年 8 月 27 日 16:324087

评论

发布
暂无评论
发现更多内容

SQL 如何做 Join

Rayjun

sql

行到瀚海阑干处,坐看华为云起时:中国互联网航海家的远大征程

脑极体

腾讯数据库专家多年运维经验凝聚成简,总结这份595页工作笔记

周老师

Java 编程 程序员 架构 面试

JAVA JDBC

Isuodut

架构师训练营第 1 期第二周总结

Leo乐

极客大学架构师训练营

工作五年,一年内我靠这系列java面试宝典从13K到大厂30K

Java成神之路

Java 程序员 面试 编程语言

架构师训练营---第二周课后练习

Jacky.Chen

进击的无源光网络:产业园区里的“追光者”

脑极体

【架构笔记之架构方法】架构师训练营第1期第1周

业哥

极客大学架构师训练营

命题作业

黄立

设计模式

架构师训练营 1 期 - 第二周 - 设计原则

三板斧

极客大学架构师训练营

Git 操作

老菜鸟

git

一周信创舆情观察(9.14~9.20)

统小信uos

Week 2 Assignment

Yinan

来不及解释了,快上车!快速开发平台,助力企业搭乘万物互联顺风车

Philips

敏捷开发 企业开发 互联网革命

〈Java开发手册(嵩山版)〉灵魂15问,深究Java规约背后的原理

Java成神之路

Java 编程 程序员 面试 阿里

一个草根的日常杂碎(9月25日)

刘新吾

社会百态 生活随想 日常杂碎

框架设计:作业

Nick~毓

京东T8Java架构师分享Docker和Kubernetes开源书,PDF版免费下载

Java成神之路

Java Docker 程序员 面试 编程语言

关于招聘的一些思考

石云升

面试 考核 招聘 下放招聘权

聊聊前端 UI 组件:核心概念

欧雷

前端工程 组件化

四年开发经验从美团、360、陌陌、百度、阿里、京东面试回来感想

Java架构师迁哥

一文快速入门分库分表

程序员内点事

Java 分库分表

云小课 | 不小心删除了数据库,除了跑路还能咋办?

华为云开发者社区

数据库 数据恢复 dba

Rust所有者被修改了会发生什么?

袁承兴

rust 内存管理 智能指针

程序员陪娃漫画系列——修空调

孙苏勇

程序员人生 陪伴 漫画

AI小白必读:深度学习、迁移学习、强化学习别再傻傻分不清

华为云开发者社区

人工智能 学习 迁移

因材施教,阿里腾讯大牛耗时7天,整理不同人群适合的面试题合集

小Q

Java 编程 程序员 架构 面试

【FastDFS】小伙伴们说在CentOS 8服务器上搭建FastDFS环境总报错?

冰河

分布式存储 fastdfs

游戏夜读 | 数据治理的悖论

game1night

架构师训练营 1 期第 2 周:框架设计 - 总结

piercebn

极客大学架构师训练营

两年Flink迁移之路:从standalone到on yarn,处理能力提升五倍-InfoQ