写点什么

eBay 流量管理之负载均衡及应用交付

  • 2019-12-29
  • 本文字数:3973 字

    阅读完需:约 13 分钟

eBay流量管理之负载均衡及应用交付

1. HLB 基本介绍

在网络安装中,硬件负载均衡器(HLB)一般安装在服务器前面,作为客户端和服务器之间的透明代理,在请求转发到服务器前进行流量管理。


一般而言,在基于 TCP 代理的负载均衡技术实现中,客户端与服务器的请求通信过程如下:


1)客户端向负载均衡器提供的虚拟 IP 地址 VIP 发送请求(CIP → VIP);

2)负载均衡器从提前配置的多个子网 IP 地址中选择一个,替代客户端请求的源 IP,并依据负载均衡算法,选择一个服务器 IP 作为目的 IP,发送请求 (SNIP → SIP);

3)服务器处理后将响应结果发回负载均衡器(SIP → SNIP);

4)负载均衡器将最终结果返回给客户端(VIP → CIP)。

如下图所示:

图 1.1

这样一来,HLB 与客户端、服务器之间实际上是两个相互独立的 TCP 连接,服务器并不知道真正的客户端 IP,但 CIP 可作为附加字段插入 HTTP Header 以告知服务器。

当然,除了 TCP 代理,负载均衡常用的实现机制还包括:DSR 模式、Tunnel 模式等。

2 流量管理

在 eBay 有极其庞大数目的机器(Machine)提供各样的服务,而一组提供类似功能的机器可以简单理解为属于一个 Pool,那么 FE Team 如何借助负载均衡器将流量分发到不同的 Machine 和 Pool 呢?这里以常用的负载均衡器之一 NetScaler 为例介绍该过程。

2.1 NetScaler 负载均衡器

NetScaler 是 Citrix 公司提供的应用交付的硬件负载均衡器,其基本配置元素包括:虚拟服务器(Virtual Server)、服务(Service)、监控程序(Monitor)等。

  • 虚拟服务器由名称、VIP、端口、协议等表示,其端口和协议决定代表的具体服务器

  • 一般而言,虚拟服务器和服务协同工作,服务作为 LB 上的逻辑抽象,绑定到虚拟服务器上,可以是服务器的 IP:Port,也可以是下一层 LB 的虚拟服务器;

  • LB 对服务对象进行定时(比如每 5 秒)的健康探测,若探测失败,则将服务标记为 DOWN,否则为 UP。LB 分发请求时,DOWN 的服务将被排除在外,流量只分发给 UP 的服务

2.2 负载均衡

那么,NetScaler 如何将流量分发到不同机器上实现负载均衡流量管理呢

举个例子,如下图所示,客户端 Client1 和 Client2 均能通过 NetScaler 上的虚拟服务器 VS_HTTP 和 VS_SSL 连接服务,服务 S1、 S2、S3 和 S4 绑定到虚拟服务器,分别表示安装在不同服务器上的应用程序。其中,VS_HTTP 和 VS_SSL 具有相同的 IP 地址,但端口和协议均不同;服务 S1 和 S2 是服务器 Server1 和 Server2 上的 HTTP 应用程序,绑定到 VS_HTTP,服务 S3 和 S4 是 Server2 和 Server3 上的 SSL 应用程序,绑定到 VS_SSL。

图 2.1

当 NetScaler 通过 10.10.10.10:80 收到 HTTP 请求时,根据 VS_HTTP 上虚拟服务器和服务的绑定情况、相应的负载均衡算法选择向 Server1 或 Server2 发送请求;同样,当通过 10.10.10.10:443 收到 HTTPS 请求时,根据 VS_SSL 上的配置绑定将请求发送给 Server2 或 Server3。由此实现了流量的分配与转发。

2.3 负载均衡算法

NetScaler 作为业内领先的硬件负载均衡器,具有极其强大的、多元化的负载均衡算法,用于决定将客户端请求转发到哪一服务器。最新版本的 NetScaler 支持十余种负载均衡算法,能够适应众多应用场景。常用的算法如:

  • 最少连接算法(Least Connection),优先选择连接数最少的后端节点,是默认的负载均衡算法,在大多数情况下提供了最佳性能;

  • 轮询算法(Round Robin),将用户请求依次轮流分配给内部服务器;

  • 最少响应时间算法(Least Response Time), 优先选择具有最少活跃连接和最低平均响应时间的服务器,可扩展为基于监控程序的最小响应时间算法(LRTM);

  • 最小带宽算法(Least Bandwidth),优先选择当前流量吞吐最小的服务器;

还有令牌算法(Token)、基于 URL 的 Hash 算法、域名 Hash 算法等,不作详述。

如果考虑不同服务器的处理能力不同,还可以给每个服务器分配不同权值,通过设置比率调整调度机率。

2.4 应用交付之七层规则

NetScaler 是以软件为中心的应用程序交付解决方案,可以通过特定的负载均衡算法将应用中的流量分发到不同机器上,那如果应用要求分发到指定 Pool,又该怎么做呢?

这就涉及到七层规则啦。NetScaler 常用的七层规则包括:

  • Content Switching Policy,将请求路由到指定的下游 Pool;

  • Responder Policy,针对特定的 HTTP 请求实现重定向(HTTP Redirect)、丢弃(TCP DROP)、重置(TCP RESET)等;

  • Rewrite Policy,改写请求后转发给后端服务,“改写”包括:改写 URL、添加/修改/删除 Header。

一个 VIP 可以根据应用要求同时支持多种规则。

若用户要求将流量分发到指定 Pool,则添加 Content Switching Policy,将符合要求的请求路由到相应 Pool,并绑定到 VIP 对应的虚拟服务器上。

3. 高可用性

了解了如何将流量分发到不同的 Machine 和 Pool 后,eBay FE Team 又是如何部署硬件负载均衡器确保其高可用性呢?

一般而言,FE Team 为每个负载均衡器同时部署两台设备。

图 3.1

其中,主设备(Primary Node)主动连接并管理服务器,辅助设备(Secondary Node)与主设备配置始终保持同步,若主设备发生故障,则辅助设备成为主设备。主设备和辅助设备相互定时发送检测信号和运行状况检查请求,从而监控彼此,以提供高可用性。

当然为了不同场景的需要,我们还提供了 BGP 等方式,这里不作详述。

4. 多数据中心多层部署

鉴于 eBay 拥有多个数据中心,数万 Pool 及上百万服务单元(VM/BM/Pod 等),需要同时部署多层负载均衡器以确保流量的正确转发,每个 Pool 在不同数据中心的各层负载均衡器上都有配置。

如下图所示,假设有 3 个数据中心,最上层 GSLB/GTM 作为 DNS Resolver 实现 DNS 解析,返回给用户不同数据中心最合适的 IP 列表;GSLB/GTM 下面绑定两层硬件负载均衡器,一层主要用于配置七层规则和 SSL,另一层主要用于负载均衡的流量转发。每一层中均有不同类型的硬件负载均衡器,包括常用的 NetScaler 和 F5。

图 4.1

一般而言,将来自相同数据中心的客户端访问的大部分流量(如:99%)分发到本数据中心,少部分流量(如:1%)转到其他数据中心,实现跨数据中心访问。若一个数据中心出现问题,流量会自动转发到其他数据中心。

5.自动化管理方案

5. 自动化管理方案流量管理是一个复杂的过程,FE Team 结合多年实战经验,基于 Python Django 框架,利用 eBay 内部的 LBMS 等接口,开发出 LB 的控制面(Control Plane)工具:EasyLB,实现了流量管理的自动化。其功能包括:七层规则的快速准确部署,配置的标准化管理,VIP 的无缝迁移,多方位的性能监控等,为 ATB(Availability to Business)提供了坚实保障。自动化方案不仅降低了人为失误,同时也提升了应用的交付效率。

6. 小试牛刀

介绍到这里,小伙伴们可能会想:“这些系统都不便宜,咱也不知道,咱也不敢问呀”。其实作为普通用户,我们完全有办法零成本使用负载均衡器

NetScaler 为例,Citrix 公司提供了一个容器化的应用交付控制器 NetScaler CPX,方便用户体验。我们应用 NetScaler CPX 做了 2 个小实验,深入理解负载均衡流量管理和七层规则,有兴趣的小伙伴可以试试。

选择两台 CentOS 主机 S1 和 S2,假设 IP 分别为 10.148.177.194 和 10.148.177.197,在 S1 上安装 Docker 并设置 NetScaler CPX 实例,搭建负载均衡拓扑。

6.1 安装 Docker

首先安装 Docker。

图 6.1

6.2 启动 NetScaler CPX 和主机端口

获取 NetScaler CPX 镜像并在后台以特权模式运行容器,指定 NetScaler 最终用户许可协议 EULA,暴露 SSH 22 和 HTTP 80 端口,并将 30000 端口映射出来用于实验,设置 ulimit 参数 core=-1 不限制 core 文件大小,输入密码后进入容器伪终端。

图 6.2

使用如下脚本,分别启动 S1 和 S2 的 80 端口,设置 GET 请求返回主机名 Server 及 IP。

图 6.3

6.3 搭建负载均衡拓扑

实验 1:负载均衡流量管理

假设 S1 和 S2 属于相同 Pool,均安装有应用程序 A,分别表示为服务 svc-A-S1 和 svc-A-S2,并绑定到虚拟服务器 VIP-A。CPX 对外暴露 30000 端口用于访问应用程序 A,负载均衡拓扑、CLI 命令及 CPX 中的配置分别如下图所示。

图 6.4

图 6.5

图 6.6

则在 S1 执行 for i in {1…100}; do curl -v 127.0.0.1:30000 2>/dev/null | grep Server; done 访问服务 A,流量会交替分发到 S1 和 S2 上,如下图所示,即:将流量转发到不同的机器,实现了负载均衡的流量管理

图 6.7

实验 2:七层规则

假设 S1 和 S2 属于不同 Pool,S1 安装应用程序 A1,S2 安装应用程序 A2,分别表示为绑定到 LBV-A1 的服务 svc-A1 和绑定到 LBV-A2 的服务 svc-A2,CPX 对外暴露 30000 端口,默认情况下访问 S1 上的应用程序 A1。添加 Content Switching Policy,当请求 token 为/check 时,将请求路由到 S2 上的 A2,负载均衡拓扑、CLI 命令及 CPX 中的配置分别如下图所示。

图 6.8

图 6.9

图 6.10

则在 S1 上分别访问 127.0.0.1:30000 和 127.0.0.1:30000/check,结果如下,实际上分别访问了服务器 S1 和 S2,验证了可通过添加七层规则将流量分发到不同 Pool 的服务器。

图 6.11

另外,NetScaler CPX 还可以用于管理微服务和负载均衡东西向流量。这里附上 NetScaler 官网和 API,有兴趣的同学可以扫码了解详情,进一步实验喔 。

点击上图扫码查看 NetScaler

点击上图扫码查看 API

总结

eBay FE Team 应用多数据中心多层部署的硬件负载均衡器,基于负载均衡算法将流量转发到不同 Machine,基于七层规则将流量转发到不同 Pool,应用自动化工具实现了高可用的流量分发与管理,确保了用户业务应用能够快速、安全、可靠地交付。

为了方便小伙伴们实验,本文还在基于容器的 NetScaler CPX 上实现了无成本体验 NetScaler,大家是不是很想试试呢?

作者介绍

Yuting Cao,eBay 软件开发工程师,2019 年上海交通大学硕士毕业,目前致力于负载均衡流量管理以及自动化平台的实现

本文转载自公众号 eBay 技术荟(ID:eBayTechRecruiting)。

原文链接

https://mp.weixin.qq.com/s/f1qC79dGwp4FCFDfspo9SQ


2019-12-29 10:152650

评论

发布
暂无评论
发现更多内容
eBay流量管理之负载均衡及应用交付_硬件_eBay技术荟_InfoQ精选文章