写点什么

122 天打造的奇迹:深入探访 xAI 的 10 万块 GPU 超级 AI 计算机集群

  • 2024-11-08
    北京
  • 本文字数:4773 字

    阅读完需:约 16 分钟

大小:2.35M时长:13:41
122 天打造的奇迹:深入探访 xAI 的 10 万块 GPU 超级 AI 计算机集群

我们将分享 xAI Colossus 超级计算机集群的参观之旅。应该有人听说过马斯克的 xAI 公司在孟菲斯建造了一个巨大的人工智能超级计算机集群,而这就是那个集群。拥有 10 万块 NVIDIA H100 GPU,这个价值数十亿美元的人工智能集群不仅因其庞大的规模而闻名,更因其惊人的建设速度而备受瞩目。建造团队仅用 122 天就建成了这个巨大的集群。今天,我们将带着大家一睹其内部的风采。


当然,我们也为此制作了一个视频,大家可以在推特或 YouTube 上找到:https://www.youtube.com/embed/Jf8EPSBZU7Y



xAI Colossus 数据中心计算大厅


我们通常会独立地开展活动,但这次不同,超微电脑(Supermicro)赞助了这次活动,因为这是今年我们涉及的最昂贵项目之一。此外,考虑到构建全球最大人工智能集群的敏感性,部分内容将进行模糊处理,或者我会故意保持一定的模糊性。我们在马斯克及其团队的特殊授权下才能展示这些内容。


超微液冷机架


Colossus 的基本构建模块是超微液冷机架,每个机架配备八台 4U 服务器,每台服务器搭载八块 NVIDIA H100 GPU,这样每个机架总共有 64 块 GPU。八台这样的 GPU 服务器与一个超微冷却剂分配单元(CDU)及其相关硬件构成了一个 GPU 机架。



xAI Colossus 数据中心超微液冷节点


这些机架按每八个机架一组,每组 512 块 GPU,并配备网络设施,以便在更大规模的系统中实现小型集群的部署。



xAI Colossus 数据中心超微 4U 通用 GPU 液冷服务器


xAI 采用的是超微 4U 通用 GPU 系统,这些系统代表了市场上最先进的人工智能服务器。之所以领先,有几个关键因素。首先是它们的液冷技术,其次是其出众的可维护性。



xAI Colossus 数据中心超微 4U 通用 GPU 液冷服务器近景


大约一年前,在丹佛举行的 2023 年超级计算大会(SC23)上,我们首次目睹了这些系统的原型。然而,在孟菲斯,我们未能亲自操作这些系统,因为当时它们正忙于执行训练任务。其中一个特性是系统安装在无需从机架中移除即可进行维护的托盘上。1U 机架的歧管设计有助于引入冷却液和排出热液。快速断开装置使得液冷系统可以迅速移除,我们去年展示了这些部件可以单手轻松拆卸和安装。在这些部件被移除后,托盘便可以轻松拉出进行维护。



超微 4U 通用 GPU 系统,适用于液冷 NVIDIA HGX H100 和 HGX 200


幸运的是,我们有这台服务器原型的图片,可以展示这些系统的内部构造。除了配备定制的超微液冷块的 8 个 GPU NVIDIA HGX 托盘外,CPU 托盘更是彰显了这些系统为何能成为行业领先的下一代设计。



超微 4U 通用 GPU 系统,适用于液冷 NVIDIA HGX H100 和 HGX 200


在 SC23 展示的原型中,有两个 x86 CPU 液冷块的设计相当常见,真正独特的地方在右侧部分:超微的主板集成了几乎所有 HGX AI 服务器目前使用的四个 Broadcom PCIe 交换机,而不是将它们单独放在单独的板上。此外,超微还定制了一个液冷块,专门用于冷却这四个 PCIe 交换机。行业内的其他 AI 服务器通常是在建造完成后才将液冷系统添加到原有的空气冷却设计中,而超微从一开始就考虑到了液冷设计,并且全部组件均来自一个供应商。



超微 SYS-821GE-TNHR NVIDIA H100 和 NVSwitch 液冷模块


就像汽车一样,有些车型最初是为汽油动力设计的,后来才在底盘上加装了电动动力系统,而另一些则从设计之初就以电动为出发点。这个超微系统属于后者,而其他 HGX H100 系统则属于前者。自这些系统发布以来,我们已经亲自体验了大多数公开的 HGX H100/H200 平台,以及一些超大规模的设计。这个超微系统与其他系统之间存在显著差异,包括我们之前评测过的超微的一些既可以液冷也可以空气冷却的系统。


在机架的背面,我们看到了用于 GPU 和 CPU 复合体的 400GbE 连接光纤,以及用于管理网络的铜缆。这些网络接口卡(NIC)安装在它们自己的托盘上,可以轻松更换而不需要移除机架,尽管它们位于机架的后部。每个服务器配备了四个电源,这些电源支持热插拔,并通过三相 PDU 进行供电。



xAI Colossus 数据中心超微 4U 通用 GPU 液冷服务器后视图 1


机架底部有 CDU,即冷却剂分配单元。这些 CDU 就像是大型的热交换器。每个机架内都设有一个流体循环系统,为所有 GPU 服务器提供冷却服务。这里提到的是专门的冷却液,而非普通水,因为这些循环系统通常需要使用针对液冷块、管道、歧管等材料进行特殊调整的冷却液。



xAI Colossus 数据中心超微 CDU 位于机架底部


每个 CDU 都配备了冗余的泵和电源,如果任何一个部件发生故障,都可以在不关闭整个机架的情况下进行现场更换。



移除一个超微 CDU 泵


你可以看到设施水和机架歧管内的液体的流动情况,还可以看到每个 CDU 都配备了热插拔的冗余电源。



超微 CDU 后置视图


这是隐藏在众多管道和电缆之中的 Colossus 机架内的 CDU。



xAI Colossus 数据中心超微 CDU 后视图


Colossus 机架的两侧有三相 PDU 和机架歧管。每个前置的 1U 歧管为 4U 通用 GPU 系统提供服务,而这些系统又由连接至 CDU 的机架歧管提供服务。这些组件分别用红色和蓝色进行标识。这是一种我们都熟悉的颜色编码方案,红色代表较暖的部分,而蓝色代表较冷的部分。



xAI Colossus 数据中心超微机架歧管


你可能还从这些照片中看到了风扇。这些风扇用于冷却服务器内部的多个组件,包括 DIMM、电源、低功耗的基板管理控制器(BMC)以及网络接口卡等。每个机架都需要与数据中心进行冷却中和,避免安装大型的空气处理器。服务器中的风扇从前部吸入较冷的空气,并在服务器后部排出热空气。随后,这些热空气会经过后门热交换器。



后门热交换器


后门热交换器听起来似乎很高级,但实际上它们与汽车散热器非常相似。它们从机架中抽取废热,并通过鳍状的热交换器 / 散热器进行散热。热交换器内部有液体流动,类似于服务器的液冷系统,热量可以与设施水循环交换。空气通过装置背面的风扇被抽过。与大多数汽车散热器不同的是,这些热交换器有一个巧妙的设计:在正常运行时,它们会发出蓝光。如果需要维修,它们也可以发出其他颜色的光,比如红光。



后门热交换器


这些后门热交换器在数据中心的设计中还扮演着另一个关键角色。它们不仅能够从超微的液冷 GPU 服务器中排除多余的热量,还能够从存储设备、CPU 计算集群以及网络组件中抽取热量。


超微存储系统


在存储方面也非常有趣。在人工智能集群中,我们经常会看到大型的存储阵列。值得注意的是,尽管这些系统运行着来自不同供应商的存储软件,但几乎所有存储服务器都采用了超微的产品。这并不令人感到意外,因为超微是众多存储供应商的 OEM 合作伙伴。



xAI Colossus 数据中心超微 1U NVMe 存储节点


在参观过程中,有一个非常有趣的点是部分存储服务器看起来与 CPU 计算服务器非常相似。



xAI Colossus 数据中心超微 1U NVMe 存储节点


在我们的影像资料中,你会看到很多 2.5 英寸 NVMe 存储托架的身影。正如我们在 Substack 上所讨论的,大型人工智能集群已经从传统的磁盘存储转向了闪存技术,因为这样不仅大幅降低了能耗,还带来了更高的性能和存储密度。虽然闪存的每 PB 成本可能更高,但从大规模集群的总体拥有成本来看,闪存往往具有更优的经济效益。


超微 CPU 计算


在这些集群中,你会看到有相当一部分传统的 CPU 计算节点。对于处理任务和数据操作任务,CPU 依然比 GPU 更为高效。



xAI Colossus 数据中心 CPU 计算机架


我们看到了 1U 服务器的机架。每台服务器都经过精心设计,以实现计算密度与散热需求之间的平衡。一个明显的例子是,我们可以看到前面板上有橙色的 NVMe 存储托架标签,但大约三分之一的面积用于吸入冷空气。



xAI Colossus 数据中心 CPU 计算机架


这些 1U 计算服务器可以通过风扇进行冷却,同时,后门热交换器能够有效地移除热量,并与数据中心的设施水进行热交换。


网  络


网络也是非常有趣的一个部分。这里采用的网络技术与普通计算机的以太网电缆技术是一样的,只不过这里使用的是 400GbE,速度是普通 1GbE 网络的 400 倍。每个系统都有九条这样的链接,因此,每个 GPU 计算服务器能够提供大约 3.6Tbps 的带宽。



xAI Colossus 数据中心 NIC


GPU 的 RDMA 网络占据了带宽的绝大部分。每个 GPU 都有自己的网络接口卡。这里使用的是 NVIDIA 的 BlueField-3 SuperNIC 和 Spectrum-X 网络技术。NVIDIA 的网络技术栈中集成了一些先进的技术,这些技术能够确保数据准确无误地传输到目的地,并有效规避集群中的潜在瓶颈。



xAI Colossus 数据中心交换机光纤


许多超级计算机网络使用 InfiniBand 或其他技术,而这里采用的是以太网。以太网的优势在于可扩展性。以太网构成了互联网的骨干,因此它是一项极具扩展性的技术。这些庞大的人工智能集群正在扩展到一些尚未被更奇特技术触及的规模,xAI 团队的这一举措无疑是非常大胆的。


除了 GPU RDMA 网络之外,CPU 也有一个 400GbE 连接,它采用的是一种完全不同的交换架构。xAI 为 GPU 独立运行一个网络,为集群的其他部分运行另一个网络,这种设计在高性能计算集群中非常常见。



xAI Colossus 数据中心单模和多模光纤


400GbE 的速度有多快?它的连接能力超过了 2021 年初顶级英特尔至强服务器处理器在其所有 PCIe 通道上能处理的数据总和。而这里的每台服务器实际上拥有九倍于那种能力的网络带宽。



xAI Colossus 数据中心交换机堆叠


部署这些网络涉及了大量的光纤布线工作。每根光纤都被精确切割到合适的长度,并进行标记。



xAI Colossus 数据中心光纤布线


我在八月份有幸见到了一些从事这项工作的人。结构化布线是一件有趣的事情。



xAI Colossus 数据中心顶部布线


除了高速集群网络之外,这里还有低速网络,用于各种管理接口和环境设备,这些东西是大规模集群不可或缺的组成部分。


Colossus 的设施


这里的服务器配备了先进的液冷机架,因此电力和供水设施就变得至关重要。这里有巨大的水管,里面流着冷却水和温水。冷水被引入设施,并在每个机架中通过 CDU 进行循环。热量从 GPU 和后门热交换器循环传递到 CDU 处的设施水循环。随后,较暖的水被输送至设施外的冷却塔。当然,这里的冷却塔并不是那种用于制作冰块的冷却塔,而是用于降低水温,使其降至足够低,以便通过设施进行循环。



xAI Colossus 数据中心设施水管


在电力方面也非常有趣。孟菲斯系统建造期间的场景颇为壮观,我们目睹了团队正在安装巨大的电缆。



xAI Colossus 数据中心部分电气基础设施


在设施外部,我们看到了装有特斯拉 Megapack 的集装箱。AI 服务器并不总是全天候以 100% 的额定功率运行,相反,它们的能耗呈现出明显的高峰和低谷。由于现场部署了大量 GPU,工作负载会在 GPU 间转移,因此能耗会出现波动。团队发现,毫秒级的功率峰值和下降幅度相当大,因此在系统中引入特斯拉 Megapack 来缓冲这些功率波动有助于确保整个设施的稳定性和可靠性。



准备在 xAI Colossus 安装的特斯拉 Megapack


当然,这个设施才刚刚开始。在我们参观时,首批四个数据大厅的集群已经部署了大约 10 万块 GPU,但集群的扩展工作正在以惊人的速度推进。



xAI Colossus 数据中心外部扩建


结束语


通过参观,我深刻感受到 xAI 团队需要很多时间来处理供应商之间的差异。这个项目能够得以实现,完全依赖于一群专家共同怀揣着以空前速度建造庞大 AI 集群的宏伟愿景。如果我只是在拍摄视频的那天匆匆一瞥,可能无法真正理解有多少人在共同努力实现这一规模浩大的工程。


如果你对了解大型 AI 设施的建造感兴趣,请留意 xAI 和超微电脑的招聘信息。我注意到 AI 社区正在讨论 LLM 如何随着计算能力的提升而不断发展,以及它们如何超越聊天机器人的范畴,展现出更广泛的应用潜力。在参观 Colossus 时,我意识到,只有当人们预见到巨大的价值时,才会建造这种规模的项目。Grok 和 xAI 团队未来的工作似乎不局限于简单的聊天机器人。许多极具智慧的人才正在投入巨额资金和时间,以尽可能快的速度实现这一宏伟目标。


原文链接:


https://www.servethehome.com/inside-100000-nvidia-gpu-xai-colossus-cluster-supermicro-helped-build-for-elon-musk/


声明:本文由 InfoQ 翻译,未经许可禁止转载。


2024-11-08 18:218651

评论

发布
暂无评论
发现更多内容

推进AI融合 2020 LF AI & DATA DAY(AI开源日)即将召开

开源技术够用了么?我的 NAS 选型与搭建过程

LeanCloud

开源 NAS

接口测试用例编写和测试关注点

测试人生路

接口测试 测试用例

Worktile旗下智能化研发管理工具PingCode 宣布25人以下免费

爱吃小舅的鱼

团队管理 程序人生 敏捷开发 研发管理 研发管理工具

小熊派开发板实践:智慧路灯沙箱实验之真实设备接入

华为云开发者联盟

物联网 IoT 路灯

英特尔独显终于来了!锐炬®Xe MAX为非凡S3x带来设计师级创作体验

E科讯

架构师训练营 W03 作业

Geek_f06ede

架构师训练

颠覆!阿里5位P8大佬分享进阶王者500修炼手册,修三门课程

996小迁

Java 程序员 架构 面试

JDK8中的新时间API:Duration Period和ChronoUnit介绍

程序那些事

java8 jdk8 新特性 程序那些事 时间API

甲方日常 44

句子

工作 随笔杂谈 日常

如何在面试中解释关键机器学习算法

计算机与AI

学习 数据科学

CloudQuery V1.2.0 版本发布

BinTools图尔兹

数据库 sql 编辑器 工具软件

「排序算法」图解双轴快排

bigsai

排序算法 快速排序 双轴快排

央视呼吁电商双十一少一些套路:应该严打网店套路营销

石头IT视角

第一届“多模态自然语言处理研讨会”精彩回顾(免费获取PPT)

京东科技开发者

人工智能 自然语言处理

一场关于FLV是否要支持HEVC的争论

wangwei1237

技术文化

环球易购数据平台如何做到既提速又省钱?

苏锐

大数据 hdfs S3 CDH 成本优化

【涂鸦物联网足迹】物联网基础介绍篇

IoT云工坊

人工智能 云计算 物联网 云平台 AIOT

测试攻城狮必备技能点!一文带你解读DevOps下的测试技术

华为云开发者联盟

敏捷开发 测试 瀑布流

TensorFlow 篇 | TensorFlow 数据输入格式之 TFRecord

Alex

tensorflow keras dataset tfrecord

Linux高级编程常用的系统调用函数汇总

哒宰的自我修养

Linux 线程 网络编程 进程 MySQL数据库

5G时代的到来对直播的影响

anyRTC开发者

5G 音视频 WebRTC 直播 RTC

深度解读智能推荐系统搭建之路 | 会展云技术揭秘

京东科技开发者

人工智能 推荐系统

腾讯内容首发:分布式核心原理解析笔记+分布式消息中间件实践笔记PDF版

Java架构追梦

Java 架构 面试 分布式 消息中间件

给萌新HTML5 入门指南(二)

葡萄城技术团队

阿里对Java候选人的面试考察重点,面P7必问(收藏备用)

小Q

Java 学习 架构 面试 高并发

帮助企业摆脱困境,名企归乡工程师:能成功全靠有它!

Learun

敏捷开发 快速开发 企业开发 企业应用

23张图!万字详解「链表」,从小白到大佬!

王磊

Java 数据结构与算法

网易云音乐基于 Flink + Kafka 的实时数仓建设实践

Apache Flink

flink

架构师训练营 W03 总结

Geek_f06ede

架构师训练

Linux-技术专题-Linux命令如何进行查看进程

洛神灬殇

122 天打造的奇迹:深入探访 xAI 的 10 万块 GPU 超级 AI 计算机集群_AI&大模型_Patrick Kennedy_InfoQ精选文章