写点什么

干货 | Reactive 模式在 Trip.com 消息推送平台上的实践

  • 2021-08-05
  • 本文字数:10798 字

    阅读完需:约 35 分钟

干货 | Reactive模式在Trip.com消息推送平台上的实践

一、背景

1.1 业务需求

Trip.com 消息推送平台主要负责 Trip.com 在海外的邮件等渠道的营销消息推送,系统整体设计为面向上游消息的流式架构,当接收到上游的请求之后,经过一系列的计算逻辑,最后将会调用下游第三方发送接口,将邮件等消息通过网络发送出去。Trip.com 消息推送平台是典型的 IO 密集型应用。

1.2 当前解决方案

Trip.com 的业务层以 Java 技术栈为主,其中主要 web 服务基于同步+阻塞 IO 的 servlet 模型,也有少部分 web 服务基于异步 servlet。servlet 是经典的 JavaEE 解决方案,旨在用多线程模型解决 IO 高并发问题。这种同步编程模型的优点是开发简单,易于进行问题追踪,并且对开发人员的要求比较低,有利于业务的快速开发。



Tirp.com 消息推送平台也是基于同步+阻塞 IO 的 servlet 模型架构。当客户端发起网络请求的时候,请求首先会由 Tomcat 容器的 Acceptor 线程进行处理,将 Channel 放到待处理请求队列然后通过 Poller 线程进行 IO 多路复用的监听,当 Poller 监听到 Channel 的可读事件后,请求体将会从缓冲区被读入内存,然后交由 Tomcat 容器的 Worker 线程池进行消费。由于需要使用阻塞 IO 调用下游的第三方发送接口,所以 Worker 线程池需要启动大量的线程进行并发操作,根据 Tomcat 配置文件,最多可能启动 1024 个 worker 线程。



<!-- 最大线程数1024,在极端情况下,最高可能启动1024个线程 --><Connector port="${port.http.server}" protocol="org.apache.coyote.http11.Http11NioProtocol" minSpareThreads="20" maxThreads="1024"/>
复制代码


代码示例

Trip.com 消息推送平台使用 AWS 的 SES 服务进行邮件发送,在发送 Email 时将会调用 AWS 的同步 SDK:



SendEmailResult sendEmail(SendEmailRequest sendEmailRequest);
复制代码


而 AWS 的同步 SDK 使用的是 apache 的 HttpClient,底层采用的 BIO 模式将会阻塞当前线程,直到会话缓冲区有数据到达或到达超时时间。

二、存在的问题

而随着业务量上涨带来上游消息负载增加,原有的阻塞 IO 模型在高并发下,会有大量线程处于阻塞状态,导致应用需要囤积大量的线程以应对峰值压力。过多的线程将会造成大量的内存占用和频繁线程上下文切换的开销,所以原有的 servlet 线程模型具有 CPU 利用率低、内存占用大、对异常请求不具备弹性等缺点。该平台在压力峰值时需要部署大量机器,它主要具有以下性能上的问题:

2.1 线程上下文切换开销

一次请求的 IO 时间平均在 1200ms,最高能达到 50000ms,而计算时间只有 1~2ms,根据最佳线程公式理论上 1C 需要 600~2500 个线程。囤积如此多的线程将会造成大量的上下文切换开销和上 GB 的内存占用。但若是使用少量的线程,将可能由于线程数量的限制,导致请求量过高时拿不到处理线程,最终请求超时,不具备低延迟等特性。

2.2 部署成本高

若是采用主流的 2C4G 容器配置,理论上将需要 1000+的线程用于处理请求,这将占用大概 1GB 的内存空间。同时若并发请求数>线程数时,需要采用水平扩容增加服务的吞吐量,所以服务需要按照峰值并发进行预估部署,造成空闲时间大量资源的浪费。

2.3 超时风险

一次 IO 最高能达到 50s,当有异常请求导致响应时间突增时,因为会阻塞线程,导致线程池中的线程大部分都被阻塞,从而无法响应新的请求。在这种情况下,少量的异常请求将会导致上游大量的超时报错,因此服务不具有弹性。

三、解决方案

面对传统 BIO 模式在 IO 密集型场景下的缺点,借助 NIO 和多路复用技术可解决上述 BIO 问题,目前 Java 项目对接 NIO 的方式主要依靠回调,代码复杂度高,降低了代码可读性与可维护性。随着 Reactive 反应式架构的流行,业界有一些公司开始推动服务的全异步升级,开始采用 Reactive 架构来解决此类问题。而 Trip.com 也开始逐渐重视服务网络 IO 的性能问题,已有部分团队开始进行 Reactive 实践。


Reactive 构建的程序代表的是异步非阻塞、函数式编程、事件驱动的思想。随着近年来 Reactive 编程模式的发展,能达到高性能与可读性的兼顾。Trip.com 消息推送平台利用 Reactive 相关技术对系统进行异步非阻塞 IO 改造,主要希望达到以下两个目标:


1)提升单机的吞吐量,提高有效 CPU 使用率、降低内存占用、保证业务请求突增时系统的可伸缩性,最终降低硬件成本。


2)使用 Reactive 编程模型,替代处理 NIO 常用的异步回调模式,积累对同步阻塞应用进行异步非阻塞化升级的重构经验。

3.1 什么是 Reactive?

反应式宣言:来自不同领域的组织正在不约而同地发现一些看起来如出一辙的软件构建模式。它们的系统更加稳健,更加有可回复性,更加灵活,并且以更好的定位来满足现代的需求。这些变化之所以会发生,是因为近几年的应用需求出现了戏剧性的变化。仅仅在几年之前,大型应用意味着数十台服务器,数秒的响应时间,数小时的离线维护时间以及若干 GB 的数据。而在今天,应用被部署在一切场合,从移动设备到基于云的集群,这些集群运行在数以千计的多核心处理器的之上。用户期望毫秒级的响应时间以及 100%的正常运行时间。数据则以 PB 为单位来衡量。


昨天的软件架构已经完全无法地满足今天的需求。我们相信,一种条理分明的系统架构方法是必要的,而且我们相信关于这种方法的所有必要方面已经逐一地被人们认识到:我们需要的系统是反应式的,具有可回复性的,可伸缩的,以及以消息驱动的。我们将这样的系统称之为反应式系统。以反应式系统方式构建的系统更加灵活,松耦合和可扩展。这使得它们更容易被开发,而且经得起变化的考验。它们对于系统失败表现出显著的包容性,并且当失败真的发生时,它们能用优雅的方式去应对,而不是放任灾难的发生。反应式系统是高度灵敏的,能够给用户以有效的交互式的反馈。


Reactive 宣言



2013 年 6 月,Roland Kuhn 等人发布了《反应式宣言》, 该宣言定义了反应式系统应该具备的一些架构设计原则。符合反应式设计原则的系统称为反应式系统。根据反应式宣言,反应式系统需要具备即时响应性(Responsive)、回弹性(Resilient)、弹性(Elastic)和消息驱动(Message Driven)四个特质。


VALUE-即时响应性 (Responsive)


只要有可能,系统就会及时地做出响应。即时响应是可用性和实用性的基石,而更加重要的是,即时响应意味着可以快速地检测到问题并且有效地对其进行处理。即时响应的系统专注于提供快速而一致的响应时间,确立可靠的反馈上限,以提供一致的服务质量。这种一致的行为转而将简化错误处理、建立最终用户的信任并促使用户与系统做进一步的互动。


反应式系统具备及时响应性,可以提供快速的响应时间,在错误发生时也会保持响应性。


FORM-回弹性(Resilient)


系统在出现失败时依然能保持即时响应性,每个组件的恢复都被委托给了另一个外部的组件,此外,在必要时可以通过复制来保证高可用性。因此组件的客户端不再承担组件失败的处理。


反应式系统通过背压等特性避免错误在系统中的传播,所以在失败发生的时候,反应式系统将会对错误具有更强的承受处理能力。背压是 reactive stream 定义的规范,可以使用 rsocket、grpc 这类网络协议实现背压的机制。


FORM-弹性(Elastic)


系统在不断变化的工作负载之下依然保持即时响应性。反应式系统可以对输入负载的速率变化做出反应,比如通过横向地伸缩底层计算资源。这意味着设计上不能有中央瓶颈,使得各个组件可以进行分片或者复制,并在它们之间进行负载均衡。


反应式系统的瓶颈不在于线程模型,在不同的工作负载下,使用 EventLoop 线程模型将始终提供 CPU 资源允许的计算能力,当达到计算能力瓶颈时可以横向拓展 CPU 计算资源。反应式系统通过 EventLoop+NIO 模型,避免线程的上下文开销,同时也避免线程池资源的大小成为系统的瓶颈。


3.2 使用 Reactive 技术进行重构

3.1 章节我们谈论了 Reactive 理论模型,以及它的部分技术原理。现在,我们要使用 Reactive 技术重构 Trip.com 消息发送平台。根据 reactive 思想的指导,对于 IO 密集型应用,我们可以采用 EventLoop+NIO 的方式对传统的同步阻塞 IO 模型进行优化。


在整个系统中,首先介绍三个主要的中间件:

1)Tomcat:网络中间件,负责接收和响应网络请求

2)RPC Framework(soa):Trip.com 集团的 RPC 框架,提供了同步和异步两种服务模式

3)AWS SDK:使用 AWS 的异步 SDK,通过 NIO 调用 AWS 服务

3.2.1 线程模型设计

在原同步版本中,首先使用 Tomcat 的 Worker 线程接收和处理 request 并执行同步逻辑,而后通过 AWS 的同步 SDK 进行 BIO 调用,此时 worker 线程将会 block 在 IO 调用上。当网络 IO 响应时,该 worker 线程将被唤醒,拿到 response 并执行响应逻辑。同步阻塞的线程模型是比较简单的,worker 线程基本负责了整个流程。


而采用 EventLoop+NIO 的异步非阻塞模式,将会无可避免的引入回调函数,为了回调流程的逻辑清晰和故障隔离等功能考虑,将会引入几组不同的回调线程池,来负责不同模块的回调逻辑。


整个异步流程的线程模型设计如图所示:



request 流程:


1)使用 Tomcat 接收和处理网络请求

使用 Tomcat 的 Acceptor 线程接收 socket 连接事件,然后封装成 NioChannel 压入 events queue 中。然后 Poller 线程通过 Selector 获取到可读的 socket,并传递给 Worker 线程进行处理。该部分与原版本的同步模型相同,Tomcat 线程模型如下图所示:



2)业务逻辑处理部分

Tomcat 的 Worker 线程将负责执行同步逻辑,worker 线程将会依次同步执行 Tomcat 逻辑、RPC Framework 逻辑、业务逻辑、AWS SDK 逻辑。


Worker 线程执行完同步逻辑之后,将会把封装好的 request 放入 EventLoop 的 events queue 中,等待 EventLoop 的处理。


3)AWS SDK NIO 异步处理

AWS 的异步 SDK,使用 Netty 进行网络 IO 的传输,其内部会内置一个 Netty 的 EventLoop 线程池,负责网络 IO 的序列化反序列化。AWS 的 EventLoop 线程池定义如下,使用的是 Netty 的 NioEventLoopGroup:



int numThreads = Optional.ofNullable(builder.numberOfThreads).orElse(0);ThreadFactory threadFactory = Optional.ofNullable(builder.threadFactory) .orElse(new ThreadFactoryBuilder() .threadNamePrefix("aws-java-sdk-NettyEventLoop") .build());return new NioEventLoopGroup(numThreads, threadFactory);
复制代码


4)注册回调函数

① channelFuture 注册回调

Netty 使用 NIO 进行网络传输,并将对应回调函数注册到对应的 channelFuture 上。


② AWS SDK 注册回调

将 channelFuture 对应的 Promise 转换成 CompletableFuture,AWS SDK 通过 CompletableFuture.whenCompleteAsync 方法将回调函数提交给 futureCompletionExecutor 线程池。



responseHandlerFuture.whenCompleteAsync((r, t) -> { if (t == null) { responseFuture.complete(r); } else { responseFuture.completeExceptionally(t); }}, futureCompletionExecutor);
复制代码


futureCompletionExecutor 线程池的设置如下,为上图中的 AWS SDK 内置的回调线程池。



int processors = Runtime.getRuntime().availableProcessors();int corePoolSize = Math.max(8, processors);int maxPoolSize = Math.max(64, processors * 2);ThreadPoolExecutor executor = new ThreadPoolExecutor(corePoolSize, maxPoolSize, 10, TimeUnit.SECONDS, new LinkedBlockingQueue<>(1_000), new ThreadFactoryBuilder() .threadNamePrefix("sdk-async-response") .build());
复制代码


③ 业务逻辑注册回调

AWS 使用 futureCompletionExecutor 线程池执行回调逻辑,业务逻辑使用 Reactor 的 Mono 异步编程模型(3.2.3 章节介绍),所以需要将 AWS 的 CompletableFuture 响应转换为 Mono:



Mono<SendEmailResponse> responseMono = Mono.fromCompletionStage(() -> { CompletableFuture<SendEmailResponse> responseFuture = sesAsyncClient.sendEmail(sendEmailRequest); return responseFuture;});
复制代码


在业务逻辑代码中,使用 Mono 进行 Reactive 风格的异步编程。最后,由于 Trip.com 的 RPC Framework 在异步编程模型中仅支持 ListenableFuture,所以我们需要将业务代码中的 MonoFuture 类型转换为 ListenableFuture 类型,并返回给 RPC Framework,在这里我们使用 Mono.subscribe()方法:



SettableFuture listenableFuture = SettableFuture.create();responseMono.subscribe( response -> listenableFuture.set(response), throwable -> listenableFuture.setException(throwable));return listenableFuture;
复制代码


④ RPC Framework 注册回调

当 RPC Framework 接收到一个异步调用结果 ListenableFuture 后,将会通过 addListener()方法注册 RPC Framework 层级的回调函数:



responseFuture.addListener(() -> {...}, rpcExecutorService);
复制代码


在这里 RPC Framework 使用了自己定义的回调线程池 rpcExecutorService,即上图中的 SOA 回调线程池:



ThreadPoolConfig config = threadPoolConfigProvider.getThreadPoolConfig(key);rpcExecutorService = new RpcExecutorService(config.taskWrapper(), new ThreadPoolExecutor( config.corePoolSize(), config.maximumPoolSize(), config.keepAliveTimeInMills(), TimeUnit.MILLISECONDS, config.workQueue(), config.threadFactory(), config.rejectedExecutionHandler()));
复制代码


至此,异步回调的链路组装完成。等待 NIO 收到响应的时候,将会依次触发上面的回调函数,进行响应流程的处理。


response 流程:


1)AWS SDK Netty 响应

当 netty 收到 IO 响应数据之后,对应的 EventLoop 线程将会处理可读事件并执行回调函数。EventLoop 首先会读取缓冲区中的数据并进行反序列化,而后执行 channel 的 pipeline,将反序列化后的 response 传递给下一流程。


2)AWS SDK 异步回调

AWS SDK 使用 1.4 中提到的 AWS 回调线程池,进行回调逻辑的处理。AWS SDK 的回调函数主要负责 AWS 内置的 response 处理,例如 AWS 的监控、埋点、日志等。


3)业务逻辑的异步回调

当 AWS 的异步回调流程完成之后,回调线程将会进入我们的业务代码注册的回调函数中,此时线程是 1.4 中定义的 sdk-async-response 线程。在业务逻辑的回调响应中,我们可以定义自己的业务回调线程池进行处理,也可以直接使用 AWS 的回调线程进行处理。由于操作非常轻量,所以在这里我们没有再额外定义一个业务回调线程池,而是直接使用了 1.4 中的线程池,减少了一次线程切换的开销。


4)RPC Framework 的异步回调

如 1.4 所述,当业务回调逻辑全部执行完毕之后,将会触发 ListenableFuture 的回调流程,此时进入 RPC Framework 这一层的回调逻辑处理。首先由 aws-async-callback 线程继续进行同步处理,而后将会把(ListenableFuture)responseFuture 中的回调函数提交给 rpcExecutorService 线程池处理。在 RPC Framework 的回调函数中,将会执行 RPC 的监控、埋点等功能(可参考 dubbo),最终将会把异步响应传递给 Tomcat。


Servlet3.0 提供了 AsyncContext 用来支持异步处理请求。RPC Framework 在异步请求处理开始的时候,将会通过 servletRequest.startAsync()获取对应的 AsyncContext 对象,此时既不关闭响应流也不进行响应的返回。当 RPC Framework 执行完所有的异步回调逻辑之后,此时 rpcExecutorService 线程将会调用 asyncContext.complete()将上下文传递给 Tomcat 容器:



finally { try { ...... asyncContext.complete(); } catch (Throwable e) { ...... }}
复制代码


5)Tomcat 的异步响应

asyncContext.complete()使 Tomcat 容器接收到 ASYNC_COMPLETE 事件,在 NioEndpoint.processSocket()方法中,将会通过 Executor executor = getExecutor(); 操作获取到 Worker 线程池(注①),而后 rpcExecutorService 线程把响应操作写入到 Worker 线程池的 events queue 中,之后 worker 线程将响应流写回客户端(注②)。



public boolean processSocket(SocketWrapperBase<S> socketWrapper, SocketEvent event, boolean dispatch) { try { if (socketWrapper == null) { return false; } SocketProcessorBase<S> sc = null; if (processorCache != null) { sc = processorCache.pop(); } if (sc == null) { sc = createSocketProcessor(socketWrapper, event); } else { sc.reset(socketWrapper, event); } // 注① Executor executor = getExecutor(); if (dispatch && executor != null) { // 注② executor.execute(sc); } else { sc.run(); } } catch (RejectedExecutionException ree) { getLog().warn(sm.getString("endpoint.executor.fail", socketWrapper) , ree); return false; } catch (Throwable t) { ExceptionUtils.handleThrowable(t); // This means we got an OOM or similar creating a thread, or that // the pool and its queue are full getLog().error(sm.getString("endpoint.process.fail"), t); return false; } return true;}
复制代码


至此,响应流写回客户端,整个请求-响应过程完成。

3.2.2 异步线程模型总结

如 3.2.1 所述,为了实现异步非阻塞的流程,不仅需要 Tomcat 的 Worker 线程池,还需要引入两个回调线程池和一个 Netty 的 EventLoop 线程池。


其中一个是 AWS 异步 SDK 的回调线程池,主要负责 AWS 功能的处理,使用的异步编程模型是 CompletableFuture;另外一个是 RPC Framework 的回调线程池,主要是封装了 Servlet3.0 的 AsyncContext 并提供异步服务的能力,使用的异步编程模型是 ListenableFuture。


而我们的业务代码使用了 Reactor 的 Mono 异步编程模型,所以需要涉及不同 Future 类型的转换,通过 Reactor 丰富的操作符,我们可以很容易的做到这一点。


预期达到的效果

使用 NIO 方式发起 AWS 的调用,避免线程阻塞,从而最大限度的消除上述 BIO 缺点,提高系统性能。最终使得应用符合 Reactive 架构理念,从而具备弹性、容错性,以降低部署成本,提高资源利用率。

3.2.3 NIO 异步编程模型选择

NIO 消除了线程的同步阻塞,意味着只能异步处理 IO 的结果,这与业务开发者顺序化的思维模式有一定差异。当业务逻辑复杂以及出现多次远程调用的情况下,多级回调难以实现和维护。


AWS 原生异步 SDK 的调用模式如下,使用了 Java8 的组合式异步编程 CompletableFuture:



default CompletableFuture<SendEmailResponse> sendEmail(SendEmailRequest sendEmailRequest)
复制代码



设计 NIO 编码,业界主流的编码方式主要有以上几种,通过 CompletableFuture 和 Lambda 表达式,可以快速实现轻量业务异步封装与编排,与 Callback 相比可以避免方法多层嵌套问题,但面对相对复杂业务逻辑时仍存在以下局限:


  • 难以简单优雅实现多异步任务编排;

  • 难以处理实时流式场景;

  • 难以支持高级异常处理;

  • 不支持任务延迟执行。


使用 Reactive 模型能够解决上述 Future 的局限。例如,使用 Reactor 封装 AWS 的异步调用:



// sending with async non-blocking ioreturn Mono .fromCompletionStage(() -> { // 注① CompletableFuture<SendEmailResponse> responseFuture = awsAsyncClient.sendEmail(sendEmailRequest); return responseFuture; }) // 注② thread switching: callback executor // .publishOn(asyncResponseScheduler) // 注③ callback: success .map(response -> this.onSuccess(context, response)) // 注④ callback: failure .onErrorResume(throwable -> { return this.onFailure(context, throwable); });
复制代码


①调用 AWS 的异步 SDK,将返回的 CompletableFuture 转成的 Mono。

②如 2.3 所述,可以使用 Mono.publishOn()将业务逻辑的回调函数放入自定义的线程池执行,也可以继续使用 AWS 的回调线程继续执行,在这里没有使用自定义的线程池。

③如果执行成功,则执行 map()中的回调方法

④如果执行抛出异常,则执行 onErrorResume()中的回调方法


从上面简单对比可以看出,相比 Future,基于 Reactive 模型丰富的操作符组合(filter/map/flatMap/zip/onErrorResume 等高阶函数)代码清晰易读,搭配 Lamda 可以轻松实现复杂业务场景任务编排。


Reactor 异步原理

reactor-core 是一层编程框架,它提供的是 reactive 风格的编程模式,以及异步调用的编排能力。而本身并没有真正网络 IO 异步回调的功能,真正的异步回调功能是底层网络 IO 框架的 Future 提供,比如上面 AWS 返回的 CompletableFuture 才是真实绑定到网络 IO 上的 Future,而 Reactor 仅仅是将其包装,方便进行 reactive 编程。


从 fromCompletionStage 方法中可以找到,这里将实际的 CompletionStage 包装成了 MonoCompletionStage(注①),但在实际订阅的时候,其实是将 Mono 的回调函数放入了 future.whenComplete 中(注②),所以说 Mono 在这里是 CompletableFuture 的外层包装。



final class MonoCompletionStage<T> extends Mono<T> implements Fuseable, Scannable {
static final Logger LOGGER = Loggers.getLogger(MonoCompletionStage.class);
// 注① final CompletionStage<? extends T> future;
MonoCompletionStage(CompletionStage<? extends T> future) { this.future = Objects.requireNonNull(future, "future"); }
@Override public void subscribe(CoreSubscriber<? super T> actual) { Operators.MonoSubscriber<T, T> sds = new Operators.MonoSubscriber<>(actual);
actual.onSubscribe(sds);
if (sds.isCancelled()) { return; }
// 注② future.whenComplete((v, e) -> { if (sds.isCancelled()) { //nobody is interested in the Mono anymore, don't risk dropping errors Context ctx = sds.currentContext(); if (e == null || e instanceof CancellationException) { //we discard any potential value and ignore Future cancellations Operators.onDiscard(v, ctx); } else { //we make sure we keep _some_ track of a Future failure AFTER the Mono cancellation Operators.onErrorDropped(e, ctx); //and we discard any potential value just in case both e and v are not null Operators.onDiscard(v, ctx); }
return; } try { if (e instanceof CompletionException) { actual.onError(e.getCause()); } else if (e != null) { actual.onError(e); } else if (v != null) { sds.complete(v); } else { actual.onComplete(); } } catch (Throwable e1) { Operators.onErrorDropped(e1, actual.currentContext()); throw Exceptions.bubble(e1); } }); }
@Override public Object scanUnsafe(Attr key) { return null; //no particular key to be represented, still useful in hooks }}
复制代码


使用 Reactor 还有另外一个好处,那就是统一异步编程模型。比如有的异步编程框架提供 ListenableFuture,有的是 CompletableFuture,还有 gRPC、dubbo、webflux 等中间件框架,都提供了自己的异步编程模型实现。如果直接针对各个框架自己的原生实现进行异步编程,将会存在不同风格的代码。而 Reactor 是反应式库的当前标准,使用 Reactor 库可以封装不同异步编程框架的异构实现,使用统一的 API 执行异步编程。

四、压测对比

通过一系列的 Reactive 技术改造,我们现在已经拥有了一个基于 EventLoop+NIO 的 IO 密集型应用,那么它的性能是否如同我们的理论推导一样将会得到提升呢?接下来我们将会通过一系列的性能压测,得到最终的结论。


压测目标:

1)是否能够达到稳定状态,以及达到稳定状态后,系统表现和指标;

2)对两个应用在不同压力下的指标,进行全面的对比,得出压测结论;


以下数据均为"稳态"时数据,稳态定义如下:



压测结果

当原应用和新应用都达到上述定义的稳态条件时,我们得到了一组对比数据。通过与原应用的压力测试结果对比,我们发现使用 EventLoop+NIO 的新应用,在相同硬件资源下,QPS 能够提升 2~3 倍,RT 缩短近 50%,同时在内存占用上也得到了一定的优化。证明该应用在经过 Reactive 技术改造后,性能较之前同步阻塞的 Servlet 架构得到了明显提升。

五、总结和展望

在本文中我们首先介绍了 Trip.com 消息推送平台服务的现状,以及现有同步+阻塞模式在 IO 密集型场景下的缺点。接下来我们通过分析如何解决这些缺点,引入了业界流行的 reactive 反应式架构。接下来在 reactive 宣言的弹性和伸缩性两种手段中,总结出了 EventLoop、NIO、背压等技术手段,最后通过这些具体的技术手段来实现我们应用的升级重构。最终根据压测结果,可以看到服务性能较之前 servlet 架构得到了明显提升。


随着云原生浪潮的到来以及物联网、边缘计算的推进,未来应用间网络通讯的量级将会变得越来越庞大,网络 IO 会是系统架构中的一等公民。如何使我们的应用能够具有更高的性能和更健壮的特性,以及如何降低硬件资源的成本,这些挑战将促使应用开发人员不断的学习实践类似 reactive 相关的技术。而在学习实践的过程中,对经典的 servlet 架构的优化重构一定是具有代表性意义的。


在适合的业务场景下,反应式技术架构能够有效提升服务吞吐能力,降低业务编排复杂度,帮助构建云原生时代整体系统快速即时反应能力。但同时构建 Reactive 模式的程序也为开发者带来更高的要求,面临比同步更为复杂的编程模型,需要更好的处理好阻塞和写出更优秀的异步代码。希望与对反应式技术感兴趣的同学和团队多多交流。


作者简介

KevinTen,携程后端开发工程师,关注 Reactive 和 RPC 领域,深度参与开源社区,对 Reactive 技术有浓厚兴趣。


Pin,携程技术专家,Apache Dubbo 贡献者,关注 RPC、Service Mesh 和云原生领域。


本文转载自:携程技术(ID:ctriptech)

原文链接:干货 | Reactive模式在Trip.com消息推送平台上的实践

2021-08-05 13:003219

评论

发布
暂无评论
发现更多内容

TiDB 生态工具 -- TiUniManager(原 TiEM)v1.0.0 体验

TiDB 社区干货传送门

6.x 实践

排查分析Empty regions 较大原因

TiDB 社区干货传送门

性能调优 实践案例 集群管理 管理与运维

内存悲观锁原理浅析与实践

TiDB 社区干货传送门

版本测评 新版本/特性解读 6.x 实践 TiKV 底层架构

TiDB HTAP特性的应用场景简析

TiDB 社区干货传送门

数据库架构设计

一次 TiDB 5.1 Write Stall 问题处理

TiDB 社区干货传送门

故障排查/诊断

体验 TiDB v6.0.0 之 TiDB 的数据迁移工具 DM-WebUI

TiDB 社区干货传送门

实践案例 6.x 实践

体验 TiDB v6.0.0 之 Clinic

TiDB 社区干货传送门

实践案例 6.x 实践

文盘Rust -- 领域交互模式如何实现

TiDB 社区干货传送门

开发语言

TiDB 6.0 新特性解读 | 离线包变更

TiDB 社区干货传送门

6.x 实践

6.0体验:TiKV 重启后 Leader 均衡加速

TiDB 社区干货传送门

管理与运维 新版本/特性解读 6.x 实践

MySQL正常执行的SQL在TiDB中变慢了

TiDB 社区干货传送门

管理与运维 故障排查/诊断

TiDB 4.0 升级 5.1 二三事——避坑指南

TiDB 社区干货传送门

版本升级

TiDB 6.0 新特性解读 | Collation 规则

TiDB 社区干货传送门

6.x 实践

基于tidbV6.0探索索引优化思路

TiDB 社区干货传送门

实践案例 6.x 实践

初体验之rawkv learner recover灾备切换

TiDB 社区干货传送门

TiDB 6.0 Book Rush | TiDB 和 Python 的 CRUD 应用开发实践

TiDB 社区干货传送门

6.x 实践

用一个性能提升了666倍的小案例说明在TiDB中正确使用索引的重要性

TiDB 社区干货传送门

性能调优 实践案例 应用适配

TiDB 5.1 Write Stalls 应急文档

TiDB 社区干货传送门

实践案例

TiDB 集群一次诡异的写入慢问题排查经历

TiDB 社区干货传送门

故障排查/诊断

体验TiDB v6.0.0 之TiCDC

TiDB 社区干货传送门

实践案例 6.x 实践

TiDB v5.4.0 与 v6.0.0 的 sysbench 性能对比

TiDB 社区干货传送门

性能测评 6.x 实践

关于HTAP与HSAP

TiDB 社区干货传送门

数据库架构设计

论分布式数据库TiDB架构的“存”与“算”

TiDB 社区干货传送门

数据库架构设计

TiCDC系列分享-01-简述产生背景及使用概况

TiDB 社区干货传送门

迁移 安装 & 部署 扩/缩容 应用适配 大数据场景实践

基于tidbV6.0探索tiflash在多标签组合场景下的使用

TiDB 社区干货传送门

实践案例 6.x 实践

我和tidb 的故事 - 我们终会在平行世界相遇

TiDB 社区干货传送门

TiDB 6.0 新特性解读 | TiFlash 新增算子和函数下推

TiDB 社区干货传送门

6.x 实践

TiDB 冷热存储分离解决方案

TiDB 社区干货传送门

管理与运维 版本测评 6.x 实践 大数据场景实践

TiDB Lightning在数据迁移中的应用与错误处理实践

TiDB 社区干货传送门

迁移 管理与运维 6.x 实践

一篇文章说透缓存表

TiDB 社区干货传送门

TiDB 源码解读 新版本/特性解读 6.x 实践

Let's go, TiCheck!

TiDB 社区干货传送门

监控

干货 | Reactive模式在Trip.com消息推送平台上的实践_架构_携程技术_InfoQ精选文章