【AICon】探索八个行业创新案例,教你在教育、金融、医疗、法律等领域实践大模型技术! >>> 了解详情
写点什么

才云自研 Kubernetes 负载均衡器

  • 2020-03-06
  • 本文字数:2344 字

    阅读完需:约 8 分钟

才云自研 Kubernetes 负载均衡器


Kubernetes 在早期设计网络的时候就已经考虑了容器的服务发现和负载均衡。Kubernetes 为 pods 的逻辑集合抽象出了 Service 资源,配合 Iptables 和 Cloud Provider 来为用户提供访问的入口,但是 Kubernetes 日益增长的用户规模和越来越复杂化的业务场景对负载均衡逐渐提出了新的挑战。


才云科技在通过不断地实践探索及从社区获取的经验积累后,自主研发了 Kubernetes 的负载均衡器,来支持 Bare Metal 和 Public Cloud 环境。下面就让我们一起来看看才云的这次研究有什么新的发现与启迪。

大纲

  • 介绍 Service

  • 介绍 Ingress

  • 介绍 Caicloud Loadbalancer

Kubernetes 如何对外暴露服务

  • 在云环境中,如 AWS、GCE, 可以使用 Type=LoadBalancer 的 Service 使用 Type=NodePort 的 Service

  • 将 Pod 的 Port 映射到 Host 的 Port

  • 使用社区的 Service LoadBalancer 项目

  • 使用 Ingress

何为 Service

在 K8S 中,Service 是 Pods 的逻辑集合,它对外提供了访问这群 pod 的一种方式。


目前 K8S 的 Sevice 都是通过 iptables 来实现的。kube-proxy 将 service 的规则刷到 node 的 iptables 中,Client 通过 serviceIP+port 访问 service 时,经过 node 的 iptables 规则转发到真正的 endpoint pods。如下图:


社区的 Service LoadBalancer

这里简单提一下这个项目 (https://github.com/kubernetes/contrib/tree/master/service-loadbalancer)。它旨在为 Bare Metal 环境提供类似于 Cloud Load Balancer 的功能, 而需要使用 Node Port 来在每个 Node 上都暴露一个端口来进行转发.


这个 Controller 会在每个 Role=Loadbalancer Label 的 Node 上自动创建一个 Service-Loadbalancer Pod, 每个 Service-Loadbalancer 包含以下功能:


  • 启动一个 Controller: Watch K8s Services and Endpoints

  • 启动一个 Load Balancer Manifest: 它会启动一个 Load Balancer,这个 LB 是可插拔的, 很容易 从 HAproxy 的实 现切换到类似于 F5 或者 Pound 的负载均衡器上

  • 一个配置模板, 因为不同的 Load Balancer Manifest 有不同的配置格式

Ingress

Ingress Ingress 介绍


一般来说,Service 和 Pod 的 IP 地址只能在集群的网络中被路由,所有到达 Edge Router 的流量都会被丢弃或者转发到其他地方, 看起来像下面这样:



Ingress 是一个规则的集合,它允许集群外的流量通过一定的规则到达集群内的 Service 。看起来像这样:



Ingress Controller


Ingress 只是一些规则,要达到上面的需求,还需要在集群内部部署一个 Ingress Controller 而 Ingress Controller 本质上是一个 Nginx/Haproxy 。


要使用 Ingress 需要经过下面几步:


1.在集群中部署 Ingress Controller, 假设 Ingress Controller 的 IP 是 178.91.123.132


2.添加 Ingress 规则,如将 foo.bar.com 这个域名下的流量导到 serviceA:8080 ,将 bar.foo.com 的流量导到 serviceB:8080


3.在请求方需要有域名解析服务将 foo.bar.com 和 bar.foo.com 解析到 178.91.123.132



Ingress 存在的问题


Ingress 和 Ingress Controller 是 K8S 提供的非常棒的功能,但是使用下来有以下的问题:


1.如何提供 Ingress Controller 本身的高可用。


2.多个 Ingress Controller 如何同时对外提供服务。


3.IngressController 自动化运维,扩容缩容监控等。

Caicloud LoadBalancer

LoadBalancer Controller


针对 Ingress 的问题,才云科技设计了自己的 LoadBalancer。


在整个架构中,我们通过一个 LoadBalancer Admin 对外提供 RESTful api 来方便操作 LoadBalancer Third Party Resource (简称 LoadBalancer TPR)。


由 LoadBalancer Controller list/watch LoadBalancer TPR, 然后根据 TPR 的 specification 去创建 Provider 和 Proxy(Ingress Controller)并对 Node 进行相应的操作。


在这里引入了一个新的组件,LoadBalancer Provider,它是用来保证 Ingress Controller 入又的高可用。


如在 Bare Metal 环境下,我们会在每个运行 Ingress Controller 的节点上, 使用 LVS/DR Provider 来将流量分发 到同一组的 Ingress Controller,同时这个 Provider 还需要保证 VIP 的高可用 而在云环境中,则可以使用云产商各自的 L4 负载来将流量分发到同一组 Ingress Controller,用 Provider 做一次 适配就 OK 了。


LoadBalancer Controller 中包含了三种 Kubernetes Controller,分别为 Provider,Proxy,Node Controller,分别 管理各自关心的资源,互不影响。


架构图如下:



Bare Metal LoadBalancer


在 Bare Metal 的环境下,我们选择了 LVS/DR 模式做 Provider,所有的流量通过 VIP, 经过 LVS 到达 Ingress Controller,由 Ingress Controller 来控制这些流量代理到对应的 Endpoint。


在这个模式下有下面这些要点:


  • Ingress Controller 运行在 Host 网络模式下

  • DR 模式需要修改机器的 arp_ignore=1, arp_announce=2

  • 在 Node 上的 回路设备(lo)上添加 VIP,将 Ingress Controller 作为 LVS 的 Real Server,DR 模式下需要 Real Server 机器持有 VIP

  • 在这种方案下,LVS 的 Director(Ipvs Provider)话则会导致流量死循环的问题。所以我们采用 Fwmark 来区分流量,对于从 Peer 节点转发来的 流量不应该再经过 Ipvs 规则。当然这个是我们使用了 Keepalived 引起的问题。


公有云

在公有云下就比较简单了,由 Provider 去适配公有云的 L4 层负载,由公有云的负载来负责将流量导流到 Ingress Controller。


总结

目前才云的 LoadBalancer 还处于 alpha 阶段,但是已经在我们内部的集群里面替换了原来的 Keepalived+HAproxy, 来为集群的多 Master 提供 HA 的支持,替换的过程中遇到了很多坑,但总算让它正确运行起来。


后续 LoadBalancer 还需要添加更多的 Provider 来适配公有云,添加监控信息,增加弹性伸缩等功能。


本文转载自才云 Caicloud 公众号。


原文链接:https://mp.weixin.qq.com/s/1XFgQVPojpzfPGEuja3kNA


2020-03-06 17:25772

评论

发布
暂无评论
发现更多内容

理想汽车 HTAP 读流量优化指南

TiDB 社区干货传送门

实践案例

基于 k8s 与 Chaos Mesh 构建数据库混沌实验日报系统

TiDB 社区干货传送门

实践案例 安装 & 部署

【精选实践】TiDB 在新东方业务前台及中台的落地

TiDB 社区干货传送门

【TiDB 4.0 新特性前瞻】DBA 减负捷径:拍个 CT 诊断集群热点问题

TiDB 社区干货传送门

如何做到 10T 集群数据安全备份、1GB/s 快速恢复?

TiDB 社区干货传送门

MySQL 和 TiDB 互相快速导入全量数据

TiDB 社区干货传送门

迁移

TiDB服务 网卡接收流量][异常:+1] 问题分析& 定位

TiDB 社区干货传送门

故障排查/诊断

TiDB 在爱奇艺实时分析场景的应用实践

TiDB 社区干货传送门

实践案例

TiUP升级集群报Run Command Timeout/SSH Timeout错误解决方案

TiDB 社区干货传送门

我眼中的分布式系统可观测性

TiDB 社区干货传送门

TiDB 在微众银行核心批量场景的实践

TiDB 社区干货传送门

实践案例

网易云音乐 DBA 谈 TiDB 选型:效率的选择

TiDB 社区干货传送门

实践案例

TiDB备份恢复体系设计与思考

TiDB 社区干货传送门

实践案例 TiDB 底层架构

PD leader 切换耗时分析

TiDB 社区干货传送门

TiDB 在2021汽车之家818全球汽车夜的应用

TiDB 社区干货传送门

实践案例

漫谈TiDB数据库部署

TiDB 社区干货传送门

安装 & 部署

分布式事务的 Commit Point

TiDB 社区干货传送门

br 备份到 s3 时 endpoint 参数加目录分隔符后缀问题排查

TiDB 社区干货传送门

管理与运维

PD源码解析之PD节点启动

TiDB 社区干货传送门

TiDB 底层架构

TiDB + 京东云数据库打造极速秒杀体验

TiDB 社区干货传送门

实践案例

伴鱼数据库之慢日志系统

TiDB 社区干货传送门

【精选实践】TiDB 在 360 云平台的落地及实战干货

TiDB 社区干货传送门

TiDB 4.0 新特性前瞻:白话“悲观锁”

TiDB 社区干货传送门

某报表业务升级5.0解决慢SQL问题

TiDB 社区干货传送门

管理与运维 故障排查/诊断

4.0 新特性前瞻:增强的 SQL Hint

TiDB 社区干货传送门

dm1.0.5 tidb3.0.15 同步阿里云drds5.7出现的问题

TiDB 社区干货传送门

K8S上TiDB集群升级卡住问题探讨

TiDB 社区干货传送门

提升问题排查速度 - TiDB 集群问题导图

TiDB 社区干货传送门

【精选实践】TiDB 在喜马拉雅推送系统中的实践

TiDB 社区干货传送门

【精选实践】TiDB 在聚美短视频业务的实践与应用

TiDB 社区干货传送门

TiDB 在某餐饮 SaaS 服务商的实践及海外机房构建

TiDB 社区干货传送门

才云自研 Kubernetes 负载均衡器_行业深度_才云科技_InfoQ精选文章