阿里、微众、PingCAP专家分享如何解决可观测性带来的埋点成本上升、观测数据割裂等挑战。戳 了解详情
写点什么

NGINX 应用性能优化指南(第四部分):负载均衡

  • 2016 年 4 月 19 日
  • 本文字数:1822 字

    阅读完需:约 6 分钟

【编者的话】本文是“NGINX 应用性能优化指南”系列文章的第四篇,主要介绍了如何从负载均衡方面实现 NGINX 应用性能优化。

注:本文最初发布于 MaxCDN 博客,InfoQ 中文站在获得作者授权的基础上对文章进行了翻译。

正文

NGINX 允许使用upstream指令配置后台。最值得注意的是会话持久化和负载均衡策略。

在会话持久化方面,有三个有用的变量需要考虑:

  1. 往返时间;
  2. 用于会话持久化的代理 TCP CWND;
  3. 持久化会话数。

性能考量

RTT 非常低则可以在代理和应用服务器之间快速建立连接,并快速提高代理的吞吐量。因此,对于(传统的)集中配置后台,热连接确实可以减少处理未缓存请求的工作。

不过,如果你已经部署了反向代理,将未缓存请求引向 _ 远程 _ 源服务器(例如海岸到海岸 80 毫秒),保持连接可以节省大量的连接建立时间——尤其是当你必须提供加密吞吐量的时候。(回想一下,新建一个 TLS 隧道需要消耗 3 个 RTT 进行协商。)

对于远端后台,你可能也会想用tcp_slow_start_after_idle(在 sys.net.ipv4 中)。这决定了 CWND 的大小是否会在连接空闲(一个 RTO)后恢复到初始值。通常,在正常情况下,那个行为是启用的,而且是期望的行为。但是,如果你在使用一个专用的点对点连接,那么你会希望禁用它,因为那不太可能遇到拥塞。BDP 也不大可能变化。

现在,我知道你在想什么:_ 我没有一个专用连接,但让我贪心一次,无论如何都试一试!_ 但下注时要考虑风险和回报。

在比较当前拥塞窗口大小和你对未来 BDP(比如平均吞吐率乘以平均 RTT)的 _ 推测 _ 时,分析真就派上用场了。还有一点值得考虑:对带宽成本的影响,假设数据不全在远端。

另外,如果你的 BDP 与初始拥塞窗口相比非常大,那么就要重新配置初始 CWND。此外,对于在快速 LAN(像 AWS EC2)上集中部署的后台,可能就不需要检查其中任何一项了。

持久化后台连接

指令keepalive(会话持久化)设置每个工作进程同上游服务器保持的最大 _ 空闲连接 _ 数。换句话说,当一个工作进程的连接超出了keepalive设置的数量,它会开始关闭最近最少使用的空闲连接,直到达到那个数值。可以将它想象成每个工作进程的连接池。

支持后台keepalive需要 HTTP/1.1,因为,我们需要设置proxy_http_version指令,并清除Connection头。对于 NGINX:

复制代码
upstream backend {
keepalive 100;
server 192.168.100.250 weight=1 max_fails=2 fail_timeout=10;
server 192.168.100.251 weight=1 max_fails=2 fail_timeout=10;
server 192.168.100.252 weight=1 max_fails=2 fail_timeout=10;
}
server {
location /http {
proxy_http_version 1.1;
proxy_set_header Connection "";
proxy_pass http://backend;
}
}

在设置keepalive的值时要记住以下几点:

  • 那个连接数会从代理和应用服务器的连接上限(参见worker_connections)中分配;
  • 那个值是针对每个工作进程的设置;
  • 你可以已经使用keepalive指令配置了多个upstream块。

除非你已经配置了轮询负载均衡,否则很难预测每个应用服务器上的连接分配。更准确地说,那取决于你的负载均衡策略、每个请求的处置以及请求时间。

当每个工作进程都与同一个后台服务器建立其所有的连接时,(不大可能发生的)最坏场景就会出现。不过,那充分表明负载均衡策略需要重新考虑了。

注意:如果你在应用程序服务器上运行着一个默认NGINX 配置,其 worker_connections上限会被设置为 512.

相关教程:增加 CentOS 7 上 NGINX 打开文件的上限

负载均衡策略

NGINX 提供了如下负载均衡策略:

  1. 加权轮询;
  2. ip_hash:基于客户端 IPv4 或 IPv6 地址的哈希;
  3. hash:基于用户定义键的哈希;
  4. least_conn:最少活动连接数;
  5. least_time NGINX Plus 提供了最少平均响应时间策略。

在性能方面,least_time可能是首选,但是如果你的后台由相同的高性能应用服务器组成,那么这种策略跟你关系就不大了。此外,haship_hash提供了有用的选项。例如,如果应用服务器需要一段时间加载用户资料,将同一个用户发送给相同的后台服务器可能会受益于缓存命中。

客户端的 IP 地址由$remote_addr变量提供。但是留心客户端 IP 哈希,因为一个 IP 地址可能表示来自同一个 NAT 的多个用户(比如公司办公室或学校)。

查看英文原文: NGINX Application Performance Optimization:Load Balancing


感谢郭蕾对本文的审校。

给InfoQ 中文站投稿或者参与内容翻译工作,请邮件至 editors@cn.infoq.com 。也欢迎大家通过新浪微博( @InfoQ @丁晓昀),微信(微信号: InfoQChina )关注我们。

2016 年 4 月 19 日 18:034681
用户头像

发布了 1008 篇内容, 共 338.5 次阅读, 收获喜欢 320 次。

关注

评论

发布
暂无评论
发现更多内容

Nginx服务器配置

Java 程序员 后端

Nginx超详细的常用两种安装方式

Java 程序员 后端

Redis(四):整数集合

Java 程序员 后端

Redis哨兵模式原理剖析,监控、选主、通知客户端你真的懂了吗?

Java 程序员 后端

OpenFaaS实战之六:of-watchdog(为性能而生)(1)

Java 程序员 后端

OpenSSL 生成CA证书及终端用户证书

Java 程序员 后端

OpenTelemetry 简析

Java 程序员 后端

Protobuf 属性解释

Java 程序员 后端

Redis小白入门教程

Java 程序员 后端

Netty编解码方案之Protobuf介绍

Java 程序员 后端

Nginx详解Location匹配规则

Java 程序员 后端

OpenFaaS实战之六:of-watchdog(为性能而生)

Java 程序员 后端

Qt知识点梳理 —— 获取设备CPU、内存、磁盘等硬件信息

Java 程序员 后端

redis之单机多节点集群

Java 程序员 后端

NoSQL到底怎么用?

Java 程序员 后端

pageHelper----Mybaits分页插件

Java 程序员 后端

netty的线程模型, 调优 及 献上写过注释的源码工程

Java 程序员 后端

pro、pre、test、dev环境

Java 程序员 后端

ReactJS实战之生命周期

Java 程序员 后端

macOS 环境安装Flutter

坚果

flutter 11月日更 安装部署

Redis实现feed流(1)

Java 程序员 后端

NodeJS快速入门必备技能

Java 程序员 后端

OpenFaaS实战之四:模板操作(template)

Java 程序员 后端

Oracle数据库访问性能优化

Java 程序员 后端

Redis哨兵原理,我忍你很久了!

Java 程序员 后端

Redis安装与部署新手入门教程

Java 程序员 后端

Redis 的持久化机制和AOF文件重写原理

Java 程序员 后端

Redis(二十一):复制

Java 程序员 后端

Redis实现feed流

Java 程序员 后端

nodeJS——网络编程

Java 程序员 后端

OpenKruise v0

Java 程序员 后端

Techo Day 腾讯技术开放日「轻量级云开发与云应用」

Techo Day 腾讯技术开放日「轻量级云开发与云应用」

NGINX应用性能优化指南(第四部分):负载均衡_性能调优_谢丽_InfoQ精选文章