9月7日-8日,相约 2023 腾讯全球数字生态大会!聚焦产业未来发展新趋势! 了解详情
写点什么

开箱即用,Knative 给您极致的容器 Serverless 体验

  • 2020-05-21
  • 本文字数:8407 字

    阅读完需:约 28 分钟

开箱即用,Knative 给您极致的容器 Serverless 体验

CNCF 发布的年度调查报告显示 2019 年 Serverless 技术进一步获得了更大的认可。其中 41% 的受访者表示已经在使用 Serverless,另外 20% 的受访者表示计划在未来 12-18 个月内会采用 Serverless 技术。而在众多开源的 Serverless 项目中 Knative 是最受欢迎的一个。如下图所示, Knative 占据了 34% 的份额,遥遥领先于第二名 OpenFaaS,Knative 是自己搭建 Serverless 平台的首选。



Knative 之所以这么受欢迎和容器的生态不无关系。和 FaaS 模式不同的是 Knative 不要求用户对应用做非常大的改造,只要用户的应用完成了容器化就能部署在 Knative 中。并且 Knative 在 Kubernetes 之上提供了更聚焦的应用模型,让用户无需为应用的升级、流量灰度花费精力,这一切都是自动完成的。

云主机的发展历程

在云计算出现之前,企业想要在互联网上对外提供服务需要先在 IDC 租赁物理机,然后再把应用部署在 IDC 的物理机上。而物理机的性能在过去十几年里始终保持着摩尔定律的速度在增长。这就导致单个应用根本无法充分利用整个物理机的资源。所以就需要有一种技术解决资源利用率的问题。简单的想如果一个应用不够就多部署几个。但在同一个物理机下多个应用混合部署会带来很多问题,比如:


  • 端口冲突

  • 资源隔离

  • 系统依赖以及运维困难


虚拟机的出现就很好的解决了上述问题,通过虚拟机技术可以在同一个物理机上虚拟出多个主机,每一个主机只部署一个应用,这样一台物理机不但可以部署多个应用,还能保证应用之间的独立性。


随着企业的发展,一家企业可能会维护很多应用。而每一个应用需要很多的发布、升级、回滚等操作,同时这些应用可能还需要在不同的地域分别部署一套。这就带来了很多运维负担,这些运维难题首当其冲的就是应用的运行环境。所以后来出现了容器技术,容器技术通过内核级别的轻量级隔离能力不但具备与 VM 几乎同等的隔离体验,还带来了一个巨大的创新就是容器镜像。通过容器镜像可以非常容易的复制应用的运行环境,开发人员只需要把应用的依赖都做到镜像中,当镜像运行的时候直接使用自带的依赖提供服务。这就解决了应用发布、升级和回滚以及多地域部署等过程中的运行环境问题。


当人们开始大规模使用容器技术之后发现大大减轻了维护实例运行环境的负担,此时最大的问题就是应用多实例的协调以及多个应用之间的协调。所以容器技术普及不久 Kubernetes 就出现了,和以往的 VM、容器技术不同,Kubernetes 天然就是一个分布式面向终态的设计,不是单机上的能力。


Kubernetes 对 IaaS 的资源分配抽象了更友好的 API,用户无需关心具体的分配细节,Kubernetes Controller 会根据面向终态的生命自动完成分配和故障转移以及负载均衡等。这使得应用开发人员无需关心具体的实例是运行在哪里,只要在需要的时候 Kubernetes 能够分配出资源即可。


无论是早期的物理机模式,还是现在的 Kubernetes 模式,应用开发者本身其实并不想管理什么底层资源,应用开发者只是想要把应用跑起来而已。在物理机模式中人们需要独占物理机,在 Kubernetes 模式中其实人们并不关心自己的业务进程是跑在哪个物理机上,事实上也无法提前预知。只要应用能够跑起来就好,至于是在哪儿运行的其实已不重要。物理机 -> 虚拟机 -> 容器 -> Kubernetes ,整个过程其实都是在简化应用使用 IaaS 资源的门槛。在这个演进过程可以发现一个清晰的脉络,IaaS 和应用之间的耦合越来越低,基础平台只要做到在应用需要运行的时候给应用分配相应的 IaaS 资源即可,应用管理者只是 IaaS 的使用者,并不需要感知 IaaS 分配的细节

Knative Serving

在介绍 Knative 之前咱们先通过一个 web 应用看一下通过 Kubernetes 做流量接入、应用发布和 Knative 做流量接入、应用发布的差别。如下图所示,在左侧是 Kubernetes 模式,右侧是 Knative 模式。



  • 在 Kubernetes 模式下:1. 用户需要自己管理 Ingress Controller;2. 要对外暴露服务需要维护 Ingress 和 Service 的关系;3. 发布时如果想要做灰度观察需要使用多个 Deployment 轮转才能完成升级;

  • 在 Knative 模式下:用户只需要维护一个 Knative Service 资源即可。


当然 Knative 并不能完全替代 Kubernetes ,Knative 是建立在 Kubernetes 能力之上的。Kubernetes 和 Knative 除了用户需要直接管理的资源不同,其实还有一个巨大的理念差异:


Kubernetes 的作用是解耦 IaaS 和应用,降低 IaaS 资源分配的成本,Kubernetes 主要聚焦于 IaaS 资源的编排。而 Knative 是更偏向应用层,是以弹性为核心的应用编排。


Knative 是一款基于 Kubernetes 的 Serverless 编排引擎,其目标是制定云原生、跨平台的 Serverless 编排标准。Knative 通过整合容器构建、工作负载管理(动态扩缩)以及事件模型这三者来实现的这一 Serverless 标准。Serving 正是运行 Serverless 工作负载的核心模块。



  • 应用托管

  • Kubernetes 是面向 IaaS 管理的抽象,通过 Kubernetes 直接部署应用需要维护的资源比较多

  • 通过 Knative Service 一个资源就能定义应用的托管

  • 流量管理

  • Knative 通过 Gateway 结果应用流量,然后可以对流量按百分比进行分割,这为弹性、灰度等基础能力做好了基础

  • 灰度发布

  • 支持多版本管理,应用同时有多个版本在线提供服务很容易实现

  • 不同版本可以设置不同的流量百分比,对灰度发布等功能实现起来很容易

  • 弹性

  • Knative 帮助应用节省成本的核心能力是弹性,在流量增加的时候自动扩容,流量下降的时候自动缩容

  • 每一个灰度的版本都有自己的弹性策略,并且弹性策略和分配到当前版本的流量是相关联的。Knative 会根据分配过来的流量多少进行扩容或者缩容的决策


Knative 更多介绍请移步这里这里了解更多。

为什么是 ASK

社区的 Kubernetes 需要您提前购买主机并注册成 Kubernetes 节点才能调度 Pod,提前购买主机这其实不符合应用的使用逻辑,应用开发人员只是想在需要运行应用实例的时候分配出 IaaS 资源即可,并不想维护繁杂的 IaaS 资源。所以如果存在一种 Kubernetes 和社区的 Kubernetes API 完全兼容,但是不需要自己运维管理复杂的 IaaS 资源,在需要的时候可以自动分配出资源,这更符合应用的对资源的使用理念。ASK 就是秉持这样的理念给您带来 Serverless Kubernetes 的使用体验。


ASK 的全称是 Serverless Kubernetes,是一种无服务器的 Kubernetes 集群,用户无需购买节点即可直接部署容器应用,无需对集群进行节点维护和容量规划,并且根据应用配置的 CPU 和内存资源量进行按需付费。ASK 集群提供完善的 Kubernetes 兼容能力,同时极大降低了 Kubernetes 使用门槛,让用户更专注于应用程序,而不是管理底层基础设施。



也就是说您无需提前准备 ECS 资源,即可直接创建一个 Kubernetes 集群,然后就能部署自己的服务了。关于 ASK 更详细的介绍参见这里


前面分析 Serverless 历程的时候咱们总结出来的 Serverless 发展主脉络其实就是 IaaS 和应用之间的耦合越来越低,基础平台只要做到在应用需要运行的时候给应用分配相应的 IaaS 资源即可,应用管理者只是 IaaS 的使用者,并不需要感知 IaaS 分配的细节。ASK 就是这个随时分配 IaaS 资源的平台,Knative 负责感知应用的实时状态,在需要的时候自动从 ASK 中“申请”IaaS 资源(Pod)。Knative 和 ASK 的结合可以给您带来更极致的 Serverless 体验。


关于 ASK 更深入的介绍请参见 《Serverless Kubernetes - 理想,现实与未来》

亮点介绍

基于 SLB 的 Gateway

Knative 社区默认支持 Istio、Gloo、Contour、Kourier 和 ambassador 等多种 Gateway 实现。在这些众多的实现中 Istio 当然是最流行的一个,因为 Istio 除了可以充当 Gateway 的角色还能做 ServiceMesh 服务使用。这些 Gateway 虽然功能完备但是作为 Serverless 服务的 Gateway 就有点儿违背初衷。首先需要有 Gateway 实例常驻运行,而为了保证高可用至少要有两个实例互为备份。其次这些 Gateway 的管控端也需要常驻运行,这些常驻实例的 IaaS 费用和运维都是业务需要支付的成本。


为了给用户提供极致的 Serverless 体验,我们通过阿里云 SLB 实现了 Knative  Gateway,所有需要的功能都具备而且是云产品级别的支撑。不需要常驻资源不但节省了您的 IaaS 成本还省去了很多运维负担。

低成本的保留实例

保留实例是 ASK Knative 独有的功能。社区的 Knative 默认在没有流量的时候可以缩容到零,但是缩容到零之后从零到一的冷启动问题很难解决。冷启动除了要解决 IaaS 资源的分配、Kubernetes 的调度、拉镜像等问题以外还涉及到应用的启动时长。应用启动时长从毫秒到分钟级别都有,这在通用的平台层面几乎无法控制。当然这些问题在所有的 serverless 产品中都存在。传统 FaaS 产品大多都是通过维护一个公共的 IaaS 池子运行不同的函数,为了保护这个池子不会被打满、和极低的冷启动时间,FaaS 产品的解法大多是对用户的函数做各种限制。比如:


  • 处理请求的超时时间:如果超过这个时间没起来就认为失败;

  • 突增并发:默认所有函数都有一个并发上限,请求量超过这个上限就会被限流;

  • CPU 以及内存:不能超过 CPU 和内存的上限。


ASK Knative 对这个问题的解法是通过低价格的保留实例来平衡成本和冷启动问题。阿里云 ECI 有很多规格,不同规格的计算能力不一样价格也不一样。如下所示是对 2c4G 配置的计算型实例和突发性能型实例的价格对比。



通过上面的对比可知突发性能实例比计算型便宜 46%,可见如果在没有流量的时候使用突发性能实例提供服务不单单解决了冷启动的问题还能节省很多成本。


突发性能实例除了价格优势以外还有一个非常亮眼的功能就是 CPU 积分。突发性能实例可以利用 CPU 积分应对突发性能需求。突发性能实例可以持续获得 CPU 积分,在性能无法满足负载要求时,可以通过消耗积累的 CPU 积分无缝提高计算性能,不会影响部署在实例上的环境和应用。通过 CPU 积分,您可以从整体业务角度分配计算资源,将业务平峰期剩余的计算能力无缝转移到高峰期使用(简单的理解就是油电混动啦☺️☺️)。突发性能实例的更多细节参见这里


所以 ASK Knative 的策略是在业务波谷时使用突发性能实例替换标准的计算型实例,当第一个请求来临时再无缝切换到标准的计算型实例。这样可以帮助您降低流量低谷的成本,并且在低谷时获得的 CPU 积分还能在业务高峰到来时消费掉,您支付的每一分钱都没有浪费。


使用突发性能实例作为保留实例只是默认策略,您可以指定自己期望的其他类型实例作为保留实例的规格。当然您也可以指定最小保留一个标准实例,从而关闭保留实例的功能。

Demo 展示

Serverless Kubernetes(ASK) 集群创建好以后可以通过以下钉钉群申请开通 Knative 功能。然后您就可以在 ASK 集群中直接使用 Knative 提供的能力了。



Knative 功能打开后会在 knative-serving namespace 中创建一个叫做 ingress-gateway 的 service,这是一个 loadbalance 类型的 service,会通过 ccm 自动创建一个 SLB 出来。如下所示 47.102.220.35 就是 SLB 的公网 IP,接下来就可以通过此公网 IP 访问 Knative 服务了。


# kubectl -n knative-serving get svcNAME              TYPE           CLUSTER-IP    EXTERNAL-IP     PORT(S)        AGEingress-gateway   LoadBalancer   172.19.8.35   47.102.220.35   80:30695/TCP   26h
复制代码


咱们后续的一系列操作就从一家咖啡店 (cafe) 开始谈起。假设这家咖啡店有两个品类:咖啡(coffee)和茶(tea)。咱们先部署 coffee 服务,然后再部署 tea 服务。同时还会包含版本升级、流量灰度、自定义 Ingress 以及自动弹性等特性的演示。

部署 coffee 服务

把如下内容保存到 coffee.yaml 文件中,然后通过 kubectl 部署到集群:


# cat coffee.yamlapiVersion: serving.knative.dev/v1kind: Servicemetadata:  name: coffeespec:  template:    metadata:      annotations:        autoscaling.knative.dev/target: "10"    spec:      containers:        - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/helloworld-go:160e4dc8          env:            - name: TARGET              value: "coffee"
复制代码


执行 kubectl apply -f coffee.yaml 部署 coffee 服务,稍等一会儿应该可以看到 coffee 服务已经部署好了。


# kubectl get ksvcNAME     URL                                 LATESTCREATED   LATESTREADY    READY   REASONcoffee   http://coffee.default.example.com   coffee-fh85b    coffee-fh85b   True
复制代码


上面这个命令的执行结果中 coffee.default.example.com 就是 Knative 为每一个 ksvc 生成的唯一子域名。现在通过 curl 命令指定 host 和前面的 SLB 公网 IP 就能访问部署的这个服务了, 如下所示 Hello coffee! 就是 coffee 服务返回的内容。


# curl -H "Host: coffee.default.example.com" http://47.102.220.35Hello coffee!
复制代码

自动弹性

Autoscaler 是 Knative 的一等公民,这是 Knative 帮助用户节省成本的核心能力。Knative 默认的 KPA 弹性策略可以根据实时的流量请求自动调整 Pod 的数量。现在咱们就来感受一下 Knative 的弹性能力,先看一下当前的 pod 信息:


# kubectl get podNAME                                       READY   STATUS    RESTARTS   AGEcoffee-bwl9z-deployment-765d98766b-nvwmw   2/2     Running   0          42s
复制代码


可以看到现在有 1 个 pod 在运行,接下来开始准备压测。在开始压测之前咱们先回顾一下 coffee 应用的配置,前面的 yaml 中有一个这样的配置, 如下所示,其中 autoscaling.knative.dev/target: “10” 意思就是每一个 Pod 的并发上限是 10 ,如果并发请求多余 10 就应该扩容新的 Pod 接受请求。关于 Knative Autoscaler 更详细的介绍请参见这里


# cat coffee-v2.yaml... ...      name: coffee-v2      annotations:        autoscaling.knative.dev/target: "10"    spec:      containers:        - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/helloworld-go:160e4dc8... ...
复制代码


好咱们现在开始压测一下试试。使用 hey 命令发起压测请求, hey 命令下载链接:



hey -z 30s -c 90 --host "coffee.default.example.com" "http://47.100.6.39/?sleep=100"
复制代码


上面这条命令的含义:


  • -z 30s 表示连续压测 30 秒;

  • -c 90 表示使用 90 个并发请求发起压测;

  • –host “coffee.default.example.com” 表示绑定 host;

  • http://47.100.6.39/?sleep=100” 就是请求 url,其中 sleep=100 在测试镜像中表示 sleep 100 毫秒,模拟真实的线上服务。


执行上述命令进行压测,然后观察 Pod 数量的变化情况。可以使用 watch -n 1 ‘kubectl  get pod’ 这条命令查看 Pod 监测 Pod 数量。如下所示做半边是 Pod 数量的变化,右半边是压测命令执行的过程。可以通过这个 gif 图观察一下压测的过程中 pod 的变化情况。当压力上来之后 Knative 就会自动扩容,所以 Pod 数量就会变多。当压测结束之后 Knative 监测到流量变少就会自动缩容,这是一个完全自动化的扩容和缩容的过程。


保留实例

前面亮点一节中介绍了 ASK Knative 会使用保留实例解决冷启动和成本问题。接下来咱们就看一下保留实例和标准实例的切换过程。


前面的压测结束以后多过一会儿,再使用 kubectl get pod 查看一下 Pod 的数量可能会发现只有一个 Pod 了,并且 Pod  名字是 xxx-reserve-xx  这种,reserve 的含义就是保留实例。这时候其实已经在使用保留实例提供服务了。当线上长时间没有请求之后 Knative 就会自动扩容保留实例,并且把标准实例缩容到零,从而达到节约成本的目的。


# kubectl get podNAME                                               READY   STATUS    RESTARTS   AGEcoffee-bwl9z-deployment-reserve-85fd89b567-vpwqc   2/2     Running   0          5m24s
复制代码


如果此时有流量进来会发生什么呢?咱们就来验证一下。通过下面的 gif 可以看出此时如果有流量进来就会自动扩容标准实例,待标准实例 ready 之后保留实例就会被缩容。



保留实例默认会使用 ecs.t5-lc1m2.small(1c2g) 这个规格。当然有些应用默认启动的时候就要分配好内存(比如 JVM),假设有一个应用需要 4G 的内存,则可能需要把 ecs.t5-c1m2.large(2c4g) 作为保留实例的规格。所以我们也提供了用户指定保留实例规格的方法,用户在提交 Knative Service 时可以通过 Annotation 的方式指定保留实例的规格, 比如 knative.aliyun.com/reserve-instance-eci-use-specs: ecs.t5-lc2m1.nano 这个配置的意思是使用 ecs.t5-lc2m1.nano 作为保留实例规格。 把下面内容保存到 coffee-set-reserve.yaml 文件:


# cat coffee-set-reserve.yamlapiVersion: serving.knative.dev/v1kind: Servicemetadata:  name: coffeespec:  template:    metadata:      annotations:        knative.aliyun.com/reserve-instance-eci-use-specs: "ecs.t5-c1m2.large"        autoscaling.knative.dev/target: "10"    spec:      containers:        - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/helloworld-go:160e4dc8          env:            - name: TARGET              value: "coffee-set-reserve"
复制代码


执行 kubectl apply -f coffee-set-reserve.yaml 提交到 Kubernetes 集群。稍微等待一会儿,待新版本缩容到保留实例之后查看一下 Pod 列表:


# kubectl get podNAME                                               READY   STATUS    RESTARTS   AGEcoffee-vvfd8-deployment-reserve-845f79b494-lkmh9   2/2     Running   0          2m37s
复制代码


查看 set-reserve 的保留实例规格, 可以看到已经设置成 2c4g 的 ecs.t5-c1m2.large 规格:


# kubectl get pod coffee-vvfd8-deployment-reserve-845f79b494-lkmh9 -oyaml |head -20apiVersion: v1kind: Podmetadata:  annotations:    ... ...    k8s.aliyun.com/eci-instance-cpu: "2.000"    k8s.aliyun.com/eci-instance-mem: "4.00"    k8s.aliyun.com/eci-instance-spec: ecs.t5-c1m2.large    ... ...
复制代码

升级 coffee 服务

在升级之前咱们先看一下现在的 Pod 实例:


# kubectl get podNAME                                               READY   STATUS    RESTARTS   AGEcoffee-fh85b-deployment-8589564f7b-4lsnf           1/2     Running   0          26s
复制代码


现在咱们来对 coffee 服务做一次升级。把下面的内容保存到 coffee-v1.yaml 文件中:


# cat coffee-v1.yamlapiVersion: serving.knative.dev/v1kind: Servicemetadata:  name: coffeespec:  template:    metadata:      name: coffee-v1      annotations:        autoscaling.knative.dev/target: "10"    spec:      containers:        - image: registry.cn-hangzhou.aliyuncs.com/knative-sample/helloworld-go:160e4dc8          env:            - name: TARGET              value: "coffee-v1"
复制代码


当前部署的这个版本中添加了两点:


  • 给当前部署的 revision 设置了一个名字 coffee-v1 (如果不设置就自动生成);

  • 环境变量中设置了 v1 字样,这样可以通过 http 返回的内容中判断当前提供服务的是 v1 版本


执行  kubectl apply -f coffee-v1.yaml 命令部署 v1 版本。部署完以后继续使用 curl -H "Host: coffee.default.example.com" [](http://47.102.220.35) 进行验证。


过几秒钟可以发现返回的内容是 Hello coffee-v1! ,在这个过程中服务没有中断,也不需要手动做任何切换,修改完以后直接提交即可自动完成新版本和老版本实例的切换。


# curl -H "Host: coffee.default.example.com" http://47.102.220.35Hello coffee-v1!
复制代码


现在咱们再来看一下 pod 实例的状态, 可以见 Pod 实例发生了切换。老版本的 Pod 自动被新版本替换掉了。


# kubectl get podNAME                                    READY   STATUS    RESTARTS   AGEcoffee-v1-deployment-5c5b59b484-z48gm   2/2     Running   0          54s
复制代码


还有更多复杂功能的 Demo 演示,请移步这里

总结

Knative 是 Kubernetes 生态最流行的 Serverless 编排框架。社区原生的 Knative 需要常驻的 Controller 和常驻的网关才能提供服务。这些常驻实例除了需要支付 IaaS 成本以外还带来了很多运维负担,给应用的 Serverless 化带来了一定的难度。所以我们在 ASK 中完全托管了 Knative Serving。开箱即用,您不需要为这些常驻实例付出任何成本。除了通过 SLB 云产品提供 Gateway 的能力以外我们还提供了基于突发性能型实例的保留规格功能,这样可以让您的服务在流量波谷时期大大的减少 IaaS 开支,并且流量波谷时期积攒的 CPU 积分可以在流量高峰时期消费,您支付的每一分钱都没有浪费。


更多 Knative 的资料请参见这里或者这里


参考资料



活动推荐:

2023年9月3-5日,「QCon全球软件开发大会·北京站」 将在北京•富力万丽酒店举办。此次大会以「启航·AIGC软件工程变革」为主题,策划了大前端融合提效、大模型应用落地、面向 AI 的存储、AIGC 浪潮下的研发效能提升、LLMOps、异构算力、微服务架构治理、业务安全技术、构建未来软件的编程语言、FinOps 等近30个精彩专题。咨询购票可联系票务经理 18514549229(微信同手机号)。

2020-05-21 11:421571

评论

发布
暂无评论
发现更多内容

oeasy教您玩转linux010108到底哪个which

o

Redis常见问题--哈希冲突

是老郭啊

哈希表 Redis项目

数字化转型需要低/零代码平台的支持

代码制造者

低代码 数字化转型 企业信息化 零代码 编程开发

Redis 持久化--AOF

是老郭啊

redis redis持久化 aof

开发任务管理分析报告

森林

5G边缘计算:开源架起5G MEC生态发展新通路

华为云开发者联盟

开源 5G 边缘计算 公有云 EdgeGallery

银行大数据新玩法,构建“一湖两库”金融数据湖

华为云开发者联盟

大数据 数据湖 FusionInsight MRS DWS

一文带你深扒ClassLoader内核,揭开它的神秘面纱!

我没有三颗心脏

Java ClassLoader java基础 类加载器

OpenKruise:Kubernetes 核心控制器 Plus

郭旭东

Kubernetes 云原生 OpenKruise

大事情!中国限制 AI 算法出口。网友:这是要阻止XX“下跪”

程序员生活志

NodeX Component - 滴滴集团 Node.js 生态组件体系

滴滴普惠出行

mPaas研发流程和线上运维介绍

阿里云金融线TAM SRE专家服务团队

ios android

一个空格引发的“救火之旅” - 记一次 SOFA RPC 的排查过程

阿里云金融线TAM SRE专家服务团队

30年技术积累,技术流RTC如何成为视频直播领域的黑马?

华为云开发者联盟

云计算 AI 5G RTC 华为云

JVM 内存模型、字节码、垃圾回收面试要点

escray

学习 面试 垃圾回收 字节码

【译】Amazon Aurora: Design Considerations for High Throughput Cloud-Native Relational Databases 上篇

花里胡哨

分布式数据库 异步 Amazon Aurora 日志驱动

Vue+Springboot项目部署

ZRK

Vue 前后端分离 springboot 部署

10万奖金等你拿!2020第四届易观OLAP算法大赛火热开启

易观大数据

面经手册 · 第8篇《LinkedList插入速度比ArrayList快?你确定吗?》

小傅哥

Java 数据结构 面试 小傅哥 linkedlist

Redis常见问题--单线程

是老郭啊

nosql redis 线程

Spring整合WebSocket

牛初九

消息队列之事务消息,RocketMQ 和 Kafka 是如何做的?

yes

分布式事务 RocketMQ kafak 事务消息

易观CTO郭炜:如何构建企业级大数据Ad-hoc查询引擎

易观大数据

开发者的福音,LR.NET模块化代码生成器

Learun

Java 敏捷开发 .net core 计算机程序设计艺术 软件设计

JAVA,.NET项目开发难上手?Learun敏捷开发框架解君愁

Philips

Java 敏捷开发 .net core

Flink检查点、保存点及状态恢复-13

小知识点

scala 大数据 flink

Docker 镜像的备份恢复迁移

哈喽沃德先生

Docker 容器 微服务 镜像

一键洞察全量SQL ,远离性能异常

华为云开发者联盟

数据库 sql 大数据 数据治理 华为云

LeetCode题解:155. 最小栈,单个栈同时存储最小值,JavaScript,详细注释

Lee Chen

大前端 LeetCode

oeasy教您玩转linux010109clear清屏

o

向云再出发:如数据般飞驰的内蒙古

脑极体

  • 扫码添加小助手
    领取最新资料包
开箱即用,Knative 给您极致的容器 Serverless 体验_服务革新_冬岛_InfoQ精选文章