NVIDIA 初创加速计划,免费加速您的创业启动 了解详情
写点什么

Kubernetes 1.2 新功能解析:multizone(多区)支持

  • 2020-03-12
  • 本文字数:2679 字

    阅读完需:约 9 分钟

Kubernetes 1.2 新功能解析:multizone(多区)支持

Kubernetes 1.2 增加的一个新的功能是把一个集群跑在多个 failure zone 里(谷歌 GCE 管它叫“zone”,亚马逊 AWS 管它们叫“availability zones”,这里我们统称它们为“zones”)。这是把多个 K8S 集群联合起来(被称为“Ubernetes”)的一个轻便的版本。Ubernetes 会允许把在多个云或者不同地区的多个 K8S 集群联合起来。然而,很多开发者近是简单地想把他们云上地 K8S 集群跑在不同 zone 里,这就是 K8S 的 1.2 版本所提供的 multizone(多区)支持(我们称之为“Ubernetes Lite”)。


K8S 1.2 特意对多区支持做了一些限制:一个简单的 K8S 集群可以跑在多区,但只能是在同一个地区(和同一个云上)。只有谷歌的 GCE 和亚马逊的 AWS 目前被自动的支持(尽管通过给节点和数据卷安排添加适当的标签来给其他云或者裸机加入类似的支持很容易)。

功能:

当节点启动之后,kubelet 自动给它们添加 zone 信息的标签。K8S 会自动在单个区的单个集群的冗余控制器(RC)内平均分布 pods 或者在节点上分布服务(来减少失败带来的影响)。对于多区集群来说,这种平均分布的行为也应该是跨区(来减少区挂掉的影响)。(这是通过 SelectorSpreadPriority 来实现的)。这是最理想的方式,但如果你集群所在的 zone 是不同的(比如,节点数量不同,节点类型不同或者不同的节点资源要求),这些都会有可能导致无法完美的跨区平均分布 pods。如果可以的话,你可以使用同一个区(同样的节点数量和节点类型)来减少不平均分配的概率。


当建立持久数据卷时,PersistentVolumeLabel 管理控制器自动会把 zone 标签加给数据卷。调度器(通过 VolumeZonePredicate)会确保 pod 和分配给这个 pod 的数据卷在同一个 zone 里,因为数据卷不能跨区。

限制:

对于多区支持有如下几个限制


  1. 我们假定不同的区互相距离很近,所以我们不做任何路由。尤其,通过服务过来的请求可能是跨区的(即使在一些 pods 里的 pod 是支持这些服务的且这些 pods 和 client 同区),这可能会导致额外的延迟和开销。


2.数据卷对区有粘性,只能以 PersistentVolume 来工作,比如说如果你特地在 pod 的参数里指定一个 EBS 数据卷是无法奏效的。


3.集群不能跨云跨地区(这个功能要靠 K8S 完整版的集群联合支持)。


4.尽管你的节点在多个区,kube-up 现在默认是跑一个单一的 master node。尽管服务是高可用,能在一个区内容忍一些损失,控制层是在某个单一区内。需要高可用控制层的开发者需留意关于 K8S 高可用方面的指南。

代码梳理:

现在来梳理一下如何在 GCE 和 AWS 上建立和使用一个多区集群。你需要建一个完整的集群(指定 MULTIZONE=1),然后通过再跑 kube-up 在其他区增加节点(设定 KUBE_USE_EXISTING_MASTER=true)


1. 建立你的集群


和往常一样来建立集群,传入 MULTIZONE 让集群知道去管理多区,在 us-central1-a 里创建节点:


GCE:curl -sS https://get.k8s.io | MULTIZONE=1 KUBERNETES_PROVIDER=gce KUBE_GCE_ZONE=us-central1-aNUM_NODES=3 bash
复制代码


AWS:curl -sS https://get.k8s.io | MULTIZONE=1 KUBERNETES_PROVIDER=aws KUBE_AWS_ZONE=us-west-2a NUM_NODES=3 bash
复制代码


通过这步就常规建立了一个集群,仍然在单区跑(但通过 MULTIZONE=1 赋予了多区的能力)


2. 节点打标签


看下节点,你能看到它们被打了 zone 信息的标签。它们目前都在 us-central1-a (GCE) 或者在 us-west-2a (AWS) 。这些标签,对地区来说,是 failure-domain.beta.kubernetes.io/region ;对 zone 来说是 failure-domain.beta.kubernetes.io/zone


3. 在第二个区内再加一些节点


现在让我们在一个不同的 zone 内(us-central1-b 或者 us-west-2b)利用已有的 master,在现有的集群里再加入一些节点。我们可以再跑一下 kube-up,但如果指定 KUBE_USE_EXISTING_MASTER=1 的话,kube-up 不会创建一个新的 master,但会重复使用之前已有的。


GCE:KUBE_USE_EXISTING_MASTER=true MULTIZONE=1 KUBERNETES_PROVIDER=gce KUBE_GCE_ZONE=us-central1-b NUM_NODES=3 kubernetes/cluster/kube-up.sh
复制代码


在 AWS 上我们也需要给子网指定网络 CIDR,和 master 内部的 IP 地址:


KUBE_USE_EXISTING_MASTER=true MULTIZONE=1 KUBERNETES_PROVIDER=aws KUBE_AWS_ZONE=us-west-2b NUM_NODES=3 KUBE_SUBNET_CIDR=172.20.1.0/24 MASTER_INTERNAL_IP=172.20.0.9 kubernetes/cluster/kube-up.sh


这时候再看下节点,应该增加了三个节点,在 us-central1-b 里。


4. 数据卷和 zone 的粘性


通过新的动态数据卷创建来创立一个数据卷(只有持久数据卷才能保证数据卷和 zone 的粘性)



持久数据卷也被打了标签,标明了它被创建的地区和 zone。在 K8S 1.2 版本里,动态的持久数据卷总是被建在集群 master 同区(在现在这个例子里,是在 us-centaral1-a / us-west-2a);这在完整版中会提高。


所以,现在我们要来创建一个 pod,来使用持久数据卷。因为 GCE PDS/AWS EBS 数据卷都不能跨区,这意味着 pod 只能被创建在和数据卷同区内。



5. Pods 跨区的分布


在冗余控制器(RC)里的 pod 或者服务会被自动地跨区分布。首先,让我们在第三个区内再生成一些节点


GCE:


KUBE_USE_EXISTING_MASTER=true MULTIZONE=1 KUBERNETES_PROVIDER=gce KUBE_GCE_ZONE=us-central1-f NUM_NODES=3 kubernetes/cluster/kube-up.sh
复制代码


AWS:


KUBE_USE_EXISTING_MASTER=true MULTIZONE=1 KUBERNETES_PROVIDER=aws KUBE_AWS_ZONE=us-west-2c NUM_NODES=3 KUBE_SUBNET_CIDR=172.20.2.0/24 MASTER_INTERNAL_IP=172.20.0.9 kubernetes/cluster/kube-up.sh
复制代码


检查一下你在三个区里有节点:


kubectl get nodes --show-labels
复制代码


建立一个 K8S 教程里 guestbook-go 例子,包含一个 RC,数量写 3,跑一个简单的 web 应用:


find kubernetes/examples/guestbook-go/ -name '*.json' | xargs -I {} kubectl create -f {}
复制代码


pods 应该跨三个区分布:



负载均衡器在一个集群之内跨区,在 K8S 标准教程 guestbook-go 里有这个负载均衡器服务的例子:



负载均衡器目前指向所有的 pods,尽管它们在不同的区里。


6. 关闭集群


结束之后,清理一下


GCE:


KUBERNETES_PROVIDER=gce KUBE_USE_EXISTING_MASTER=true KUBE_GCE_ZONE=us-central1-f kubernetes/cluster/kube-down.shKUBERNETES_PROVIDER=gce KUBE_USE_EXISTING_MASTER=true KUBE_GCE_ZONE=us-central1-b kubernetes/cluster/kube-down.shKUBERNETES_PROVIDER=gce KUBE_GCE_ZONE=us-central1-a kubernetes/cluster/kube-down.sh
复制代码


AWS:


KUBERNETES_PROVIDER=aws KUBE_USE_EXISTING_MASTER=true KUBE_AWS_ZONE=us-west-2c kuberne
复制代码


本文转载自才云 Caicloud 公众号。


原文链接: https://mp.weixin.qq.com/s/dzgWthBXVOqYRmw-W4OkjA


2020-03-12 22:52689

评论

发布
暂无评论
发现更多内容

可用性和易用性双重飞跃 | OceanBase社区版3.1.2正式发布

OceanBase 数据库

数据库 OceanBase 社区版 开发者大会

教程直播第6期 | OceanBase 如何进行 Benchmark 测试及调优

OceanBase 数据库

数据库 直播 OceanBase 社区版

09 Prometheus之可靠性及可扩展性

穿过生命散发芬芳

Prometheus 1月月更

一文看懂椭圆曲线签名算法

Rayjun

区块链 椭圆曲线

SAP R/3系统的R和3分别代表什么含义,负载均衡的实现原理

Jerry Wang

负载均衡 abap 1月月更

《亚马逊编年史》阅读散记

boshi

读书笔记

从零打造Instagram

俞凡

架构 Instagram 大厂实践

架构实战营第 4 期 -- 模块六作业

烈火干柴烛灭田边残月

架构实战营

2021的科技卦象·坤·5G沃土上万物生长

脑极体

探索CPU的调度原理

元闰子

操作系统 CPU调度

数据产品经理实战-团队搭建

第519区

团队建设 数据产品经理 数据产品 1月月更

模块四作业

cqyanbo

架构训练营 -- 模块六

LJK

#架构训练营

什么是 Github 的元数据以及如何备份 github 上的数据

Jerry Wang

GitHub 1月月更

【Spring专场】「AOP容器」不看源码就带你认识核心流程以及运作原理

洛神灬殇

spring spring 源码 1月月更 Spring原理

技术走向管理第一站 技术经理

张老蔫

28天写作

这是一个操作系统,但既不是Windows也不是Linux

LAXCUS分布式操作系统

云计算 分布式操作系统 计算机集群 分布式应用 行列混合存储

每个人都要会的复盘知识

石云升

复盘 迭代管理 1月月更

一个cpp协程库的前世今生(十四)信号量与条件变量

SkyFire

c++ cocpp

深入解读aws graviton3

三少

云计算架构师

云原生学习总结

好吃不贵

实现DCI架构

元闰子

DDD DCI架构

模块五

撿破爛ぃ

「架构实战营」

一次无脑接口测试导致的无效排查的经历

liuzhen007

1月月更

在一年一度高交会,看城市发展的“AI三部曲”

脑极体

996统计

你?

从2021分布式数据库开发者大会里,我们找出了这8个关键词

OceanBase 数据库

OceanBase 开源 OceanBase 社区版

一图回顾 2021分布式数据库开发者大会精彩看点

OceanBase 数据库

数据库 OceanBase 社区版 开发者大会

设计模式【10】-- 顺便看看享元模式

秦怀杂货店

Java 设计模式 享元模式

探索OS的内存管理原理

元闰子

操作系统 内存管理

模块四-考试试卷存储方案

Only

架构师实战营 「架构实战营」

Kubernetes 1.2 新功能解析:multizone(多区)支持_语言 & 开发_才云科技_InfoQ精选文章