红帽白皮书新鲜出炉!点击获取,让你的云战略更胜一筹! 了解详情
写点什么

案例分析:基于消息的分布式架构

  • 2012-05-16
  • 本文字数:14065 字

    阅读完需:约 46 分钟

美国计算机科学家,LaTex 的作者 Leslie Lamport 说:“分布式系统就是这样一个系统,系统中一个你甚至都不知道的计算机出了故障,却可能导致你自己的计算机不可用。”一语道破了开发分布式系统的玄机,那就是它的复杂与不可控。所以 Martin Fowler 强调:分布式调用的第一原则就是不要分布式。这句话看似颇具哲理,然而就企业应用系统而言,只要整个系统在不停地演化,并有多个子系统共同存在时,这条原则就会被迫打破。盖因为在当今的企业应用系统中,很难寻找到完全不需要分布式调用的场景。Martin Fowler 提出的这条原则,一方面是希望设计者能够审慎地对待分布式调用,另一方面却也是分布式系统自身存在的缺陷所致。无论是 CORBA,还是 EJB 2;无论是 RPC 平台,还是 Web Service,都因为驻留在不同进程空间的分布式组件,而引入额外的复杂度,并可能对系统的效率、可靠性、可预测性等诸多方面带来负面的影响。

然而,不可否认的是在企业应用系统领域,我们总是会面对不同系统之间的通信、集成与整合,尤其当面临异构系统时,这种分布式的调用与通信变得越重要,它在架构设计中就更加凸显其价值。并且,从业务分析与架构质量的角度来讲,我们也希望在系统架构中尽可能地形成对服务的重用,通过独立运行在进程中服务的形式,彻底解除客户端与服务端的耦合。这常常是架构演化的必然道路。在我的同事陈金洲发表在 InfoQ 上的文章《架构腐化之谜》中,就认为可以通过“将独立的模块放入独立的进程”来解决架构因为代码规模变大而腐化的问题。

随着网络基础设施的逐步成熟,从RPC 进化到Web Service,并在业界开始普遍推行SOA,再到后来的RESTful 平台以及云计算中的PaaS 与SaaS 概念的推广,分布式架构在企业应用中开始呈现出不同的风貌,然而殊途同归,这些分布式架构的目标仍然是希望回到建造巴别塔的时代,系统之间的交流不再为不同语言与平台的隔阂而产生障碍。正如Martin Fowler 在《企业集成模式》一书的序中写道:“集成之所以重要是因为相互独立的应用是没有生命力的。我们需要一种技术能将在设计时并未考虑互操作的应用集成起来,打破它们之间的隔阂,获得比单个应用更多的效益”。这或许是分布式架构存在的主要意义。

1、集成模式中的消息模式

归根结底,企业应用系统就是对数据的处理,而对于一个拥有多个子系统的企业应用系统而言,它的基础支撑无疑就是对消息的处理。与对象不同,消息本质上是一种数据结构(当然,对象也可以看做是一种特殊的消息),它包含消费者与服务双方都能识别的数据,这些数据需要在不同的进程(机器)之间进行传递,并可能会被多个完全不同的客户端消费。在众多分布式技术中,消息传递相较文件传递与远程过程调用(RPC)而言,似乎更胜一筹,因为它具有更好的平台无关性,并能够很好地支持并发与异步调用。对于 Web Service 与 RESTful 而言,则可以看做是消息传递技术的一种衍生或封装。在《面向模式的软件架构(卷四)》一书中,将关于消息传递的模式划归为分布式基础设施的范畴,这是因为诸多消息中间件产品的出现,使得原来需要开发人员自己实现的功能,已经可以直接重用。这极大地降低了包括设计成本、实现成本在内的开发成本。因此,对于架构师的要求也就从原来的设计实现,转变为对业务场景和功能需求的判断,从而能够正确地进行架构决策、技术选型与模式运用。

常用的消息模式

在我参与过的所有企业应用系统中,无一例外地都采用(或在某些子系统与模块中部分采用)了基于消息的分布式架构。但是不同之处在于,让我们做出架构决策的证据却迥然而异,这也直接影响我们所要应用的消息模式。

消息通道(Message Channel)模式

我们常常运用的消息模式是 Message Channel(消息通道)模式,如图 1 所示。

图 1 Message Channel 模式(图片来自 eaipatterns

消息通道作为在客户端(消费者,Consumer)与服务(生产者,Producer)之间引入的间接层,可以有效地解除二者之间的耦合。只要实现规定双方需要通信的消息格式,以及处理消息的机制与时机,就可以做到消费者对生产者的“无知”。事实上,该模式可以支持多个生产者与消费者。例如,我们可以让多个生产者向消息通道发送消息,因为消费者对生产者的无知性,它不必考虑究竟是哪个生产者发来的消息。

虽然消息通道解除了生产者与消费者之间的耦合,使得我们可以任意地对生产者与消费者进行扩展,但它又同时引入了各自对消息通道的依赖,因为它们必须知道通道资源的位置。要解除这种对通道的依赖,可以考虑引入 Lookup 服务来查找该通道资源。例如,在 JMS 中就可以通过 JNDI 来获取消息通道 Queue。若要做到充分的灵活性,可以将与通道相关的信息存储到配置文件中,Lookup 服务首先通过读取配置文件来获得通道。

消息通道通常以队列的形式存在,这种先进先出的数据结构无疑最为适合这种处理消息的场景。微软的 MSMQ、IBM MQ、JBoss MQ 以及开源的 RabbitMQ Apache ActiveMQ 都通过队列实现了 Message Channel 模式。因此,在选择运用 Message Channel 模式时,更多地是要从质量属性的层面对各种实现了该模式的产品进行全方位的分析与权衡。例如,消息通道对并发的支持以及在性能上的表现;消息通道是否充分地考虑了错误处理;对消息安全的支持;以及关于消息持久化、灾备(fail over)与集群等方面的支持。因为通道传递的消息往往是一些重要的业务数据,一旦通道成为故障点或安全性的突破点,对系统就会造成灾难性的影响。在本文的第二部分,我将给出一个实际案例来阐释在进行架构决策时应该考虑的架构因素,并由此做出正确地决策。

发布者 - 订阅者(Publisher-Subscriber)模式

一旦消息通道需要支持多个消费者时,就可能面临两种模型的选择:拉模型与推模型。拉模型是由消息的消费者发起的,主动权把握在消费者手中,它会根据自己的情况对生产者发起调用。如图 2 所示:

图 2 拉模型

拉模型的另一种体现则由生产者在状态发生变更时,通知消费者其状态发生了改变。但得到通知的消费者却会以回调方式,通过调用传递过来的消费者对象获取更多细节消息。

在基于消息的分布式系统中,拉模型的消费者通常以 Batch Job 的形式,根据事先设定的时间间隔,定期侦听通道的情况。一旦发现有消息传递进来,就会转而将消息传递给真正的处理器(也可以看做是消费者)处理消息,执行相关的业务。在本文第二部分介绍的医疗卫生系统,正是通过引入 Quartz.NET 实现了 Batch Job,完成对消息通道中消息的处理。

推模型的主动权常常掌握在生产者手中,消费者被动地等待生产者发出的通知,这就要求生产者必须了解消费者的相关信息。如图 3 所示:

图 3 推模型

对于推模型而言,消费者无需了解生产者。在生产者通知消费者时,传递的往往是消息(或事件),而非生产者自身。同时,生产者还可以根据不同的情况,注册不同的消费者,又或者在封装的通知逻辑中,根据不同的状态变化,通知不同的消费者。

两种模型各有优势。拉模型的好处在于可以进一步解除消费者对通道的依赖,通过后台任务去定期访问消息通道。坏处是需要引入一个单独的服务进程,以 Schedule 形式执行。而对于推模型而言,消息通道事实上会作为消费者观察的主体,一旦发现消息进入,就会通知消费者执行对消息的处理。无论推模型,拉模型,对于消息对象而言,都可能采用类似 Observer 模式的机制,实现消费者对生产者的订阅,因此这种机制通常又被称为 Publisher-Subscriber 模式,如图 4 所示:

图 4 Publisher-Subscriber 模式(图片来自 eaipatterns )

通常情况下,发布者和订阅者都会被注册到用于传播变更的基础设施(即消息通道)上。发布者会主动地了解消息通道,使其能够将消息发送到通道中;消息通道一旦接收到消息,会主动地调用注册在通道中的订阅者,进而完成对消息内容的消费。

对于订阅者而言,有两种处理消息的方式。一种是广播机制,这时消息通道中的消息在出列的同时,还需要复制消息对象,将消息传递给多个订阅者。例如,有多个子系统都需要获取从 CRM 系统传来的客户信息,并根据传递过来的客户信息,进行相应的处理。此时的消息通道又被称为 Propagation 通道。另一种方式则属于抢占机制,它遵循同步方式,在同一时间只能有一个订阅者能够处理该消息。实现 Publisher-Subscriber 模式的消息通道会选择当前空闲的唯一订阅者,并将消息出列,并传递给订阅者的消息处理方法。

目前,有许多消息中间件都能够很好地支持 Publisher-Subscriber 模式,例如 JMS 接口规约中对于 Topic 对象提供的 MessagePublisher 与 MessageSubscriber 接口。RabbitMQ 也提供了自己对该模式的实现。微软的 MSMQ 虽然引入了事件机制,可以在队列收到消息时触发事件,通知订阅者。但它并非严格意义上的 Publisher-Subscriber 模式实现。由微软 MVP Udi Dahan 作为主要贡献者的 NServiceBus ,则对 MSMQ 以及 WCF 做了进一层包装,并能够很好地实现这一模式。

消息路由(Message Router)模式

无论是 Message Channel 模式,还是 Publisher-Subscriber 模式,队列在其中都扮演了举足轻重的角色。然而,在企业应用系统中,当系统变得越来越复杂时,对性能的要求也会越来越高,此时对于系统而言,可能就需要支持同时部署多个队列,并可能要求分布式部署不同的队列。这些队列可以根据定义接收不同的消息,例如订单处理的消息,日志信息,查询任务消息等。这时,对于消息的生产者和消费者而言,并不适宜承担决定消息传递路径的职责。事实上,根据 S 单一职责原则,这种职责分配也是不合理的,它既不利于业务逻辑的重用,也会造成生产者、消费者与消息队列之间的耦合,从而影响系统的扩展。

既然这三种对象(组件)都不宜承担这样的职责,就有必要引入一个新的对象专门负责传递路径选择的功能,这就是所谓的 Message Router 模式,如图 5 所示:

图 5 Message Router 模式(图片来自 eaipatterns )

通过消息路由,我们可以配置路由规则指定消息传递的路径,以及指定具体的消费者消费对应的生产者。例如指定路由的关键字,并由它来绑定具体的队列与指定的生产者(或消费者)。路由的支持提供了消息传递与处理的灵活性,也有利于提高整个系统的消息处理能力。同时,路由对象有效地封装了寻找与匹配消息路径的逻辑,就好似一个调停者(Meditator),负责协调消息、队列与路径寻址之间关系。

除了以上的模式之外,Messaging 模式提供了一个通信基础架构,使得我们可以将独立开发的服务整合到一个完整的系统中。 Message Translator 模式则完成对消息的解析,使得不同的消息通道能够接收和识别不同格式的消息。而且通过引入这样的对象,也能够很好地避免出现盘根错节,彼此依赖的多个服务。Message Bus 模式可以为企业提供一个面向服务的体系架构。它可以完成对消息的传递,对服务的适配与协调管理,并要求这些服务以统一的方式完成协作。

2、消息模式的应用场景

基于消息的分布式架构总是围绕着消息来做文章。例如可以将消息封装为对象,或者指定消息的规范例如 SOAP,或者对实体对象的序列化与反序列化。这些方式的目的只有一个,就是将消息设计为生产者和消费者都能够明白的格式,并能通过消息通道进行传递。

场景一:基于消息的统一服务架构

在制造工业的 CIMS 系统中,我们尝试将各种业务以服务的形式公开给客户端的调用者,例如定义这样的接口:

复制代码
public interface IService {
IMessage Execute(IMessage aMessage);
void SendRequest(IMessage aMessage);
}

之所以能够设计这样的服务,原因在于我们对业务信息进行了高度的抽象,以消息的形式在服务之间传递。此时的消息其实是生产者与消费者之间的契约或接口,只要遵循这样的契约,按照规定的格式对消息进行转换与抽取,就能很好地支持系统的分布式处理。

在这个 CIMS 系统中,我们将消息划分为 ID,Name 和 Body,通过定义如下的接口方法,可以获得消息主体的相关属性:

复制代码
public interface IMessage:ICloneable
{
string MessageID { get; set; }
string MessageName() { get; set; }
IMessageItemSequence CreateMessageBody();
IMessageItemSequence GetMessageBody();
}

消息主体类 Message 实现了 IMessage 接口。在该类中,消息体 Body 为 IMessageItemSequence 类型。这个类型用于获取和设置消息的内容:Value 和 Item:

复制代码
public interface IItemValueSetting {
string getSubValue(string name);
void setSubValue(string name, string value);
}
public interface IMessageItemSequence:IItemValueSetting, ICloneable
{
IMessageItem GetMessageItem(string aName);
IMessageItem CreateMessageItem(string aName);
}

Value 为字符串类型,它利用了 HashTable 存储 Key 和 Value 的键值对。Item 则为 IMessageItem 类型,在 IMessageItemSequence 的实现类中,同样利用了 HashTable 存储 Key 和 Item 的键值对。

IMessageItem 支持消息体的嵌套。它包含了两部分:SubValue 和 SubItem。实现的方式和 IMessageItemSequence 相似。通过定义这样的嵌套结构,使得消息的扩展成为可能。一般的消息结构如下所示:

复制代码
IMessage——Name
——ID
——Body(IMessageItemSequence)
——Value
——Item(IMessageItem)
——SubValue
——SubItem(IMessageItem)
——……

各个消息对象之间的关系如图 6 所示:

图 6 消息对象之间的关系

在实现服务进程通信之前,我们必须定义好各个服务或各个业务的消息格式。通过消息体的方法在服务的一端设置消息的值,然后发送,并在服务的另一端获得这些值。例如发送消息端定义如下的消息体:

复制代码
IMessageFactory factory = new MessageFactory();
IMessage message = factory.CreateMessage();
message.SetMessageName("service1");
IMessageItemSequence body = message.CreateMessageBody();
body.SetSubValue("subname1","subvalue1");
body.SetSubValue("subname2","subvalue2");
IMessageItem item1 = body.CreateMessageItem(”item1”);
item1.SetSubValue("subsubname11","subsubvalue11");
item1.SetSubValue("subsubname12","subsubvalue12");
//Send Request Message
MyServiceClient service = new MyServiceClient("Client");
service.SendRequest(message);

我们在客户端引入了一个 ServiceLocator 对象,它通过 MessageQueueListener 对消息队列进行侦听,一旦接收到消息,就获取该消息中的 name 去定位它所对应的服务,然后调用服务的 Execute(aMessage) 方法,执行相关的业务。

ServiceLocator 承担的定位职责其实是对存储在 ServiceContainer 容器中的服务进行查询。ServiceContainer 容器可以读取配置文件,在启动服务的时候初始化所有的分布式服务(注意,这些服务都是无状态的),并对这些服务进行管理。它封装了服务的基本信息,诸如服务所在的位置,服务的部署方式等,从而避免服务的调用者直接依赖于服务的细节,既减轻了调用者的负担,还能够较好地实现服务的扩展与迁移。

在这个系统中,我们主要引入了 Messaging 模式,通过定义的 IMessage 接口,使得我们更好地对服务进行抽象,并以一种扁平的格式存储数据信息,从而解除服务之间的耦合。只要各个服务就共用的消息格式达成一致,请求者就可以不依赖于接收者的具体接口。通过引入的 Message 对象,我们就可以建立一种在行业中通用的消息模型与分布式服务模型。事实上,基于这样的一个框架与平台,在对制造行业的业务进行开发时,开发人员最主要的活动是与领域专家就各种业务的消息格式进行讨论,这样一种面向领域的消息语言,很好地扫清了技术人员与业务人员的沟通障碍;同时在各个子系统之间,我们也只需要维护服务间相互传递的消息接口表。每个服务的实现都是完全隔离的,有效地做到了对业务知识与基础设施的合理封装与隔离。

对于消息的格式和内容,我们考虑引入了 Message Translator 模式,负责对前面定义的消息结构进行翻译和解析。为了进一步减轻开发人员的负担,我们还可以基于该平台搭建一个消息 - 对象 - 关系的映射框架,引入实体引擎(Entity Engine)将消息转换为领域实体,使得服务的开发者能够以完全面向对象的思想开发各个服务组件,并通过调用持久层实现消息数据的持久化。同时,利用消息总线(此时的消息总线可以看做是各个服务组件的连接器)连接不同的服务,并允许异步地传递消息,对消息进行编码。这样一个基于消息的分布式架构如图 7 所示:

图 7 基于 Message Bus 的 CIMS 分布式架构

场景二:消息中间件的架构决策

在一个医疗卫生系统中,我们面临了客户对系统性能 / 可用性的非功能需求。在我们最初启动该项目时,客户就表达了对性能与可用性的特别关注。客户希望最终用户在进行复杂的替换删除操作时,能够具有很好的用户体验,简言之,就是希望能够快速地得到操作的响应。问题在于这样的替换删除操作需要处理比较复杂的业务逻辑,同时牵涉到的关联数据量非常大,整个操作若需完成,最坏情况下可能需要几分钟的时间。我们可以通过引入缓存、索引、分页等多种方式对数据库操作进行性能调优,但整个操作的耗时始终无法达到客户的要求。由于该系统是在一个遗留系统的基础上开发,如果要引入 Map-Reduce 来处理这些操作,以满足质量需求,则对架构的影响太大,且不能很好地重用之前系统的某些组件。显然,付出的成本与收益并不成正比。

通过对需求进行分析,我们注意到最终客户并不需要实时获得结果,只要能够保证最终结果的一致性和完整性即可。关键在于就用户体验而言,他们不希望经历漫长的等待,然后再通知他们操作究竟是成功还是失败。这是一个典型需要通过后台任务进行异步处理的场景。

在企业应用系统中,我们常常会遭遇这样的场景。我们曾经在一个金融系统中尝试通过自己编写任务的方式来控制后台线程的并发访问,并完成对任务的调度。事实证明,这样的设计并非行之有效。对于这种典型的异步处理来说,基于消息传递的架构模式才是解决这一问题的最佳办法。

因为消息中间件的逐步成熟,对于这一问题的架构设计,已经由原来对设计实现的关注转为如何进行产品选型和技术决策。例如,在.NET 平台下,架构师需要重点考虑的是应该选择哪种消息中间件来处理此等问题?这就需要我们必须结合具体的业务场景,来识别这种异步处理方式的风险,然后再根据这些风险去比较各种技术,以求寻找到最适合的方案。

通过分析业务场景以及客户性质,我们发现该业务场景具有如下特征:

  • 在一些特定情形下,可能会集中发生批量的替换删除操作,使得操作的并发量达到高峰;例如 FDA 要求召回一些违规药品时,就需要删除药品库中该药品的信息;
  • 操作结果不要求实时性,但需要保证操作的可靠性,不能因为异常失败而导致某些操作无法进行;
  • 自动操作的过程是不可逆转的,因此需要记录操作历史;
  • 基于性能考虑,大多数操作需要调用数据库的存储过程;
  • 操作的数据需要具备一定的安全性,避免被非法用户对数据造成破坏;
  • 与操作相关的功能以组件形式封装,保证组件的可重用性、可扩展性与可测试性;
  • 数据量可能随着最终用户的增多而逐渐增大;

针对如上的业务需求,我们决定从以下几个方面对各种技术方案进行横向的比较与考量。

  • 并发:选择的消息队列一定要很好地支持用户访问的并发性;
  • 安全:消息队列是否提供了足够的安全机制;
  • 性能伸缩:不能让消息队列成为整个系统的单一性能瓶颈;
  • 部署:尽可能让消息队列的部署更为容易;
  • 灾备:不能因为意外的错误、故障或其他因素导致处理数据的丢失;
  • API 易用性:处理消息的 API 必须足够简单、并能够很好地支持测试与扩展;

我们先后考察了 MSMQ、Resque、ActiveMQ 和 RabbitMQ,通过查询相关资料,以及编写 Spike 代码验证相关质量,我们最终选择了 RabbitMQ。

我们选择放弃 MSMQ,是因为它严重依赖 Windows 操作系统;它虽然提供了易用的 GUI 方便管理人员对其进行安装和部署,但若要编写自动化部署脚本,却非常困难。同时,MSMQ 的队列容量不能查过 4M 字节,这也是我们无法接收的。Resque 的问题是目前仅支持 Ruby 的客户端调用,不能很好地与.NET 平台集成。此外,Resque 对消息持久化的处理方式是写入到 Redis 中,因而需要在已有 RDBMS 的前提下,引入新的 Storage。我们比较倾心于 ActiveMQ 与 RabbitMQ,但通过编写测试代码,采用循环发送大数据消息以验证消息中间件的性能与稳定性时,我们发现 ActiveMQ 的表现并不太让人满意。至少,在我们的询证调研过程中,ActiveMQ 会因为频繁发送大数据消息而偶尔出现崩溃的情况。相对而言,RabbitMQ 在各个方面都比较适合我们的架构要求。

例如在灾备与稳定性方面,RabbitMQ 提供了可持久化的队列,能够在队列服务崩溃的时候,将未处理的消息持久化到磁盘上。为了避免因为发送消息到写入消息之间的延迟导致信息丢失,RabbitMQ 引入了 Publisher Confirm 机制以确保消息被真正地写入到磁盘中。它对 Cluster 的支持提供了 Active/Passive 与 Active/Active 两种模式。例如,在 Active/Passive 模式下,一旦一个节点失败,Passive 节点就会马上被激活,并迅速替代失败的 Active 节点,承担起消息传递的职责。如图 8 所示:

图 8 Active/Passive Cluster(图片来自 RabbitMQ 官方网站)

在并发处理方面,RabbitMQ 本身是基于 erlang 编写的消息中间件,作为一门面向并发处理的编程语言,erlang 对并发处理的天生优势使得我们对 RabbitMQ 的并发特性抱有信心。RabbitMQ 可以非常容易地部署到 Windows、Linux 等操作系统下,同时,它也可以很好地部署到服务器集群中。它的队列容量是没有限制的(取决于安装 RabbitMQ 的磁盘容量),发送与接收信息的性能表现也非常好。RabbitMQ 提供了 Java、.NET、Erlang 以及 C 语言的客户端 API,调用非常简单,并且不会给整个系统引入太多第三方库的依赖。 例如.NET 客户端只需要依赖一个程序集。

即使我们选择了 RabbitMQ,但仍有必要对系统与具体的消息中间件进行解耦,这就要求我们对消息的生产者与消费者进行抽象,例如定义如下的接口:

复制代码
public interface IQueueSubscriber
{
void ListenTo<T>(string queueName, Action<T> action);
void ListenTo<T>(string queueName, Predicate<T> messageProcessedSuccessfully);
void ListenTo<T>(string queueName, Predicate<T> messageProcessedSuccessfully, bool requeueFailedMessages);
}
public interface IQueueProvider
{
T Pop<T>(string queueName);
T PopAndAwaitAcknowledgement<T>(string queueName, Predicate<T> messageProcessedSuccessfully);
T PopAndAwaitAcknowledgement<T>(string queueName, Predicate<T> messageProcessedSuccessfully, bool requeueFailedMessages);
void Push(FunctionalArea functionalArea, string routingKey, object payload);
}

在这两个接口的实现类中,我们封装了 RabbitMQ 的调用类,例如:

复制代码
public class RabbitMQSubscriber : IQueueSubscriber
{
public void ListenTo<T>(string queueName, Action<T> action)
{
using (IConnection connection = _factory.OpenConnection())
using (IModel channel = connection.CreateModel())
{
var consumer = new QueueingBasicConsumer(channel);
string consumerTag = channel.BasicConsume(queueName, AcknowledgeImmediately, consumer);
var response = (BasicDeliverEventArgs) consumer.Queue.Dequeue();
var serializer = new JavaScriptSerializer();
string json = Encoding.UTF8.GetString(response.Body);
var message = serializer.Deserialize<T>(json);
action(message);
}
}
}
public class RabbitMQProvider : IQueueProvider
{
public T Pop<T>(string queueName)
{
var returnVal = default(T);
const bool acknowledgeImmediately = true;
using (var connection = _factory.OpenConnection())
using (var channel = connection.CreateModel())
{
var response = channel.BasicGet(queueName, acknowledgeImmediately);
if (response != null)
{
var serializer = new JavaScriptSerializer();
var json = Encoding.UTF8.GetString(response.Body);
returnVal = serializer.Deserialize<T>(json);
}
}
return returnVal;
}
}

我们用 Quartz.Net 来实现 Batch Job。通过定义一个实现了 IStatefulJob 接口的 Job 类,在 Execute() 方法中完成对队列的侦听。Job 中 RabbitMQSubscriber 类的 ListenTo() 方法会调用 Queue 的 Dequeue() 方法,当接收的消息到达队列时,Job 会侦听到消息达到的事件,然后以同步的方式使得消息弹出队列,并将消息作为参数传递给 Action 委托。因此,在 Batch Job 的 Execute() 方法中,可以定义消息处理的方法,并调用 RabbitMQSubscriber 类的 ListenTo() 方法,如下所示(注意,这里传递的消息事实上是 Job 的 Id):

复制代码
public void Execute(JobExecutionContext context)
{
string queueName = queueConfigurer.GetQueueProviders().Queue.Name;
try
{
queueSubscriber.ListenTo<MyJob>(
queueName,
job => request.MakeRequest(job.Id.ToString()));
}
catch(Exception err)
{
Log.WarnFormat("Unexpected exception while processing queue '{0}', Details: {1}", queueName, err);
}
}

队列的相关信息例如队列名都存储在配置文件中。Execute() 方法调用了 request 对象的 MakeRequest() 方法,并将获得的消息(即 JobId)传递给该方法。它会根据 JobId 到数据库中查询该 Job 对应的信息,并执行真正的业务处理。

在对基于消息处理的架构进行决策时,除了前面提到的考虑因素外,还需要就许多设计细节进行多方位的判断与权衡。例如针对 Job 的执行以及队列的管理,就需要考虑如下因素:

  • 对 Queue 中 Job 状态的监控与查询;
  • 对 Job 优先级的管理;
  • 能否取消或终止执行时间过长的 Job;
  • 是否能够设定 Job 的执行时间;
  • 是否能够设定 Poll 的间隔时间;
  • 能否跨机器分布式的放入 Job;
  • 对失败 Job 的处理;
  • 能否支持多个队列,命名队列;
  • 能否允许执行 Job 的工作进程对应特定的队列;
  • 对 Dead Message 的支持。

3、选择的时机

究竟在什么时候,我们应该选择基于消息处理的分布式架构?根据我参与的多个企业应用系统的经验,窃以为需要满足如下几个条件:

  • 对操作的实时性要求不高,而需要执行的任务极为耗时;
  • 存在企业内部的异构系统间的整合;
  • 服务器资源需要合理分配与利用;

对于第一种情况,我们常常会选择消息队列来处理执行时间较长的任务。此时引入的消息队列就成了消息处理的缓冲区。消息队列引入的异步通信机制,使得发送方和接收方都不用等待对方返回成功消息,就可以继续执行下面的代码,从而提高了数据处理的能力。尤其是当访问量和数据流量较大的情况下,就可以结合消息队列与后台任务,通过避开高峰期对大数据进行处理,就可以有效降低数据库处理数据的负荷。前面提到的医疗卫生系统正是这样一种适用场景。

对于不同系统乃至于异构系统的整合,恰恰是消息模式善于处理的场景。只要规定了消息的格式与传递方式,就可以有效地实现不同系统之间的通信。在为某汽车制造商开发一个大型系统时,分销商作为.NET 客户端,需要将数据传递到管理中心。这些数据将被 Oracle 的 EBS(E-Business Suite)使用。分销商管理系统(Dealer Management System,DMS)采用了 C/S 结构,数据库为 SQL Server,汽车制造商管理中心的 EBS 数据库为 Oracle 10g。我们需要解决两种不同数据库间数据的传递。解决方案就是利用 MSMQ,将数据转换为与数据库无关的消息数据,并在两端部署 MSMQ 服务器,建立消息队列以便于存储消息数据。实现架构如图 9 所示。

图 10 利用 MSMQ 实现的分布式处理架构

首先,分销商的数据通过 MSMQ 传递到 MSMQ Server,再将数据插入到 SQL Server 数据库的同时,利用 FTP 将数据传送到专门的文件服务器上。EBS App Server 会将文件服务器中的文件,基于接口规范写入到 Oracle 数据库,从而实现.NET 系统与 Oracle 系统之间的整合。

分布式系统通常能够缓解单个服务器的压力,通过将不同的业务操作与数据处理以不同的服务形式部署并运行在不同的服务器上,就可以有效地分配与利用服务器资源。在这种情况下,部署在不同服务器上的服务,既可能作为服务端,用以处理客户端调用的请求,也可能作为客户端,在处理完自己的业务后,将其余业务请求委派给其他服务。在早期的 CORBA 系统中,通过建立统一的 Naming Service,用以管理和分派服务,并通过 Event Service 实现事件的分发与处理。但 CORBA 系统采用的是 RPC 的方式,需要将服务设计和部署为远程对象,并建立代理。如果通过消息通道的方式,则既可以解除这种对远程对象的依赖,又可以很好地支持异步调用模型。在前面提到的 CIMS 系统,就是通过消息总线提供消息传递的基础设施,并建立统一的消息处理服务模型,解除服务见的依赖,使得各个服务能够独立地部署到不同服务器上。

4、面临的困难

由于消息模式自身的特殊性,我们在运用消息模式建立基于消息的分布式架构时,常常会面临许多困难。

首先是系统集成的问题。由于系统之间的通信靠消息进行传递,就必须保证消息的一致性,同时,还需要维护系统之间(主要是服务之间)接口的稳定性。一旦接口发生变化,就可能影响到该接口的所有调用者。即使服务通过接口进行了抽象,由于消息持有双方服务规定的业务数据,在一定程度上违背了封装的要义。换言之,生产与消费消息的双方都紧耦合于消息。消息的变化会直接影响到各个服务接口的实现类。然而,为了尽可能保证接口的抽象性,我们所要处理的消息都不是强类型的,这就使得我们在编译期间很难发现因为消息内容发生变更产生的错误。在我之前提到的汽车零售商管理系统就存在这样的问题。当时我负责的 CRM 模块需要同时与多个子系统进行通信,而每个子系统又是由不同的团队进行开发。团队之间因为沟通原因,常常未能及时地同步接口表。虽然各个子系统的单元测试和功能测试都已通过,但直到对 CRM 进行集成测试,才发现存在大量消息不匹配的集成问题,这些问题的起因都是因为消息的变更。

解决的方案是引入充分的集成测试,甚至是回归测试,并需要及时运行这些测试,以快速地获得反馈。我们可以将集成测试作为提交代码的验证们,要求每次提交代码都必须运行集成测试与指定的回归测试 。这正是持续集成的体现。通过在本地构建与远程构建运行集成测试与回归测试,有效地保证本地版本与集成后的版本不会因为消息的改变使得功能遭受破坏。一旦遭受破坏,也能够及时获得反馈,发现问题,即刻解决这些问题,而不是等到项目后期集中进行集成测试。

另一个问题是后台任务的非实时性带来的测试困难。由于后台任务是定期对消息队列中的消息进行处理,因而触发的时机是不可预测的 。对于这种情况,我们通常会同时运用两种方案,双管其下地解决问题。首先,我们会为系统引入一个同步实现功能的版本,并通过在配置文件中引入 toggle 的开关机制,随时可以在同步功能与异步功能之间进行切换。如果我们能够保证消息队列处理与后台任务执行的正确性,就可以设置为同步功能,这样就能快速而准确地对该任务所代表的功能进行测试,并及时收获反馈。同时,我们可以在持续集成服务器上建立一个专门的管道(pipeline),用以运行基于消息处理的异步版本。这个管道对应的任务可以通过手动执行,也可以对管道设置定时器,在指定时间执行(例如在凌晨两点执行一次,这样在第二天开始工作之前可以获得反馈)。我们需要为该管道准备特定的执行环境,并将后台任务的侦听与执行时间修改为可以接受的值。这样既能够及时了解功能是否正确,又能保证基于消息的系统是工作正常的。

当然,分布式系统还存在解析消息、网络传递的性能损耗。对于这些问题,需要架构师审慎地分析业务场景,正确地选择架构方案与架构模式。相比较本地系统而言,分布式系统的维护难度可能成倍递增。这既需要我们在进行架构决策与设计时,充分考虑系统架构的稳定性,同时还需要引入系统日志处理。更好的做法是为日志处理增加错误通知的功能,只要发生消息处理的错误信息,就通过邮件、短信等方式通知系统管理员,及时地处理错误。因为只有在发生错误的当时查询错误日志,才能够更好对问题进行定位。同时,还可以为系统引入 Error Message Queue 以及 Dead Message Queue,以便于处理错误和异常情况。

对于分布式系统而言,还需要考虑服务执行结果的一致性,尤其是当某个业务需要多个服务参与到一个会话中时,一旦某个服务发生故障,就可能导致应用出现状态不一致的情况,因为只有所有参与者都成功执行了任务,才能视为完全成功。这就牵涉到分布式事务的问题,此时任务的执行就变成了事务型的:即任务必须是原子的,结果状态必须保持一致。在任务处理过程中,状态修改是彼此隔离的,成功的状态修改在整个事务执行过程中是持久的。这就是事务的 ACID(Atomic,Consistent,Isolated 与 Durable)属性。

一种方案是引入分布式事务协调器,即 DTC(Distributed Transaction Coordinator), 将事务分为两段式甚至三段式提交,要求整个事务的所有参与者以投票形式决定事务是完全成功还是失败。另一种方案是降低对结果一致性的要求。根据 eBay 的最佳实践,考虑到分布式事务的成本,获得分布式资源即时的一致性是不必要的,也是不现实的。在 Randy Shoup 的文章《可伸缩性最佳实践:来自eBay 的经验》中提到了Eric Brewer 的CAP 公理:分布式系统的三项重要指标——一致性(Consistency)、可用性(Availability)和 分区耐受性(Partition-tolerance)——在任意时刻,只有两项能同时成立。我们应该根据不同的应用场景,权衡这三个要素。在不必要保证即时的一致性前提下,我们可以考虑合理地划分服务,尽量将可能作用在同一个事务范围的业务操作部署在同一个进程中,以避免分布式部署。如果确实需要多个分布式服务之间保持执行结果的一致,可以考虑引入数据核对,异步恢复事件或集中决算等手段。


感谢马国耀对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ )或者腾讯微博( @InfoQ )关注我们,并与我们的编辑和其他读者朋友交流。

2012-05-16 00:0057261
用户头像

发布了 109 篇内容, 共 39.6 次阅读, 收获喜欢 13 次。

关注

评论

发布
暂无评论
发现更多内容

Soul 学习笔记---使用 nacos 实现数据同步上篇(七)

fightingting

Soul网关

Nine Ring九环智能合约软件开发|Nine Ring九环智能合约APP系统开发

系统开发

一文带你搞懂从动态代理实现到Spring AOP

华为云开发者联盟

spring jdk 容器 aop 动态代理

图说丨京东《技术重构社会供应链——未来科技趋势白皮书》

京东科技开发者

京东 智能供应链

Soul 源码阅读 02|WebSocket建立连接的过程

哼干嘛

如何理解新技术带来的新资产类别?

CECBC

区块链

接到需求,你要先做哪件事?

熊斌

学习 需求分析 28天写作

AWS CDK | IaC 何必只用 Yaml

郭旭东

AWS 基础设施即代码 IaC

MDF智能合约APP开发|MDF智能合约软件系统开发

系统开发

基于机器学习的逻辑回归模型

无誉

深度解读设备的“万能语言”鸿蒙系统的分布式软总线能力

华为云开发者联盟

鸿蒙 操作系统 智能设备 HarmonyOS 分布式软总线

数据库运维家中常备:上限约400MB/s,比COPY等工具还好用的数据利器

华为云开发者联盟

数据 GaussDB 数据迁移 gds FDW

悟透前端 | ECMAScript 6的Map映射

devpoint

json 大前端 map ES6

软件测试--cookie学习

测试人生路

软件测试

美团图数据库平台建设及业务实践

NebulaGraph

图数据库

人类为啥要睡觉?

Justin

心理学 28天写作 睡眠

数字货币呼之欲出,但这些套路须警惕!

CECBC

数字货币

数字货币交易所系统开发|数字货币交易所软件APP开发

系统开发

2021年数字货币时代加速到来

CECBC

数字人民币

基于用户画像/AB测试的产品定价

无誉

【CSS】内圆角(box-shadow、outline)

德育处主任

html5 大前端 Web CSS小技巧 28天写作

连云港:“云底座”构建智慧教育的未来图景

浪潮云

刷屏的微信8.0(文末附安卓下载链接) | 视频号 28 天 (15)

赵新龙

28天写作

HPC on Volcano:容器在气象行业HPC高性能计算场景的应用

华为云原生团队

大数据 容器 云原生 k8s 分布式计算

Linux:为什么性能工具需要 BPF 技术

博文视点Broadview

第一周

Richard

懂分析、会预测,你见过这样的华为云DAS吗?

华为云开发者联盟

人工智能 sql 数据管理系统 智能运维 华为云DAS

Elasticsearch document 的 _source 元数据

escray

elastic 七日更 28天写作 死磕Elasticsearch 60天通过Elastic认证考试

点位盘,点位盘开发,点位盘合约交易。

v16629866266

联动链金-魔方支付体系整理

2020年终总结:回顾、反思、期待

书旅

年终总结

案例分析:基于消息的分布式架构_架构_张逸_InfoQ精选文章