写点什么

35 年只卖设计,今天亲自下场造芯!Arm 首款自研芯片发布,Meta 抢下首单  

  • 2026-03-25
    北京
  • 本文字数:2164 字

    阅读完需:约 7 分钟

整理 | 华卫

 

36 年来,半导体与软件公司 Arm 一直将芯片设计授权给英伟达、苹果等企业使用,如今终于开始自主研发并制造自有芯片。

 

在近日举办的发布活动上,该公司正式推出一款面向 AI 数据中心推理场景、可直接量产的处理器 Arm AGI CPU。这家英国企业基于自研 Neoverse 系列 CPU IP 内核,并与 Meta 合作完成了这款芯片的开发。

 

同时,Meta 也是 Arm AGI CPU 的首位客户,该芯片专为与 Meta 的 AI 训练及推理加速器协同工作而设计。Arm 的首批合作方还包括 OpenAI、Cerebras、Cloudflare 等多家科技公司。

 

市场对 Arm 转型自研芯片的动向早有预期。据外媒报道,该公司早在 2023 年便启动了芯片研发工作,目前相关处理器已开放订购。

 

尽管此举在预料之中,却标志着 Arm 历史性地打破了长期以来仅向其他芯片厂商授权设计的传统模式。这家由日本软银集团控股的公司,未来将与众多合作伙伴直接展开竞争。

 

Arm 选择推出 CPU 而非 GPU,这一点同样值得关注。

代理式 AI 基础设施崛起

 

AI 系统正日益以全球规模持续运行。在过去,人是计算环节的瓶颈——人们与系统的交互速度决定了工作推进的速度。而在代理式 AI 时代,因为软件智能体可自主协同任务、与多个模型交互,并实时做出决策,这种局限性将不复存在。

 

随着 AI 系统持续运行且工作负载复杂度不断提升,CPU 已成为现代基础设施中决定运行节奏的关键要素——负责保持分布式 AI 系统大规模的高效运行。在现下的 AI 数据中心中,CPU 管理数千个分布式任务,包括协调加速器、管理内存与存储、调度工作负载、跨系统迁移数据,加上当今的代理式 AI 场景兴起,CPU 还需面向海量智能体实现大规模协同调度。

 

这一转变对 CPU 提出了全新要求,驱动处理器架构的演进。

 

Arm Neoverse 现已成为当今众多领先超大规模云服务及 AI 平台的核心支撑,包括 Amazon Graviton、Google Axion、Microsoft Azure Cobalt 及 NVIDIA Vera 等。随着 AI 基础设施在全球范围内不断扩展,生态系统的合作伙伴纷纷期待 Arm 能够提供更多能力。为应对这一变革,Arm AGI CPU 应运而生。

Arm AGI CPU:专为机架级代理式 AI 效率而生

 

代理式 AI 工作负载需要在大规模场景下实现持续稳定的性能输出。Arm AGI CPU 正是为此而设计,能够在数千核心并行的持续高负载下,为每个任务提供高性能表现,且满足现代数据中心功耗与散热的严格要求。

 

从运行频率到内存及 I/O 架构,Arm AGI CPU 的每一处设计都经过专门优化,在高密度机架部署场景下,支持大规模并行、高性能的代理式 AI 工作负载。

 

Arm 的参考服务器采用 1OU 双节点设计,每台刀片服务器中集成两颗 CPU 芯片,并配备独立内存与 I/O,共计 272 个核心。这些刀片服务器可在标准风冷 36 千瓦 (kW) 机架中满配部署,30 台刀片服务器可提供总计 8160 个核心。此外,Arm 还与 Supermicro 合作推出 200 千瓦 (kW) 液冷设计方案,可容纳 336 颗 Arm AGI CPU,提供超过 45000 个核心。

 

在该配置下,凭借 Arm 架构的根本优势,以及系统资源与计算能力的精准匹配,Arm AGI CPU 可实现单机架性能达到最新 x86 系统的两倍以上:

  • Arm AGI CPU 具备业界领先的内存带宽,使每个机架能够支持更多高效执行的线程;相比之下,x86 CPU 在持续高负载下会因核心争抢资源而导致性能下降;

  • 高性能、高能效的单线程Arm Neoverse V3处理器核心性能出众,优于传统架构——每个 Arm 线程可处理更多任务;

  • 更多可用线程与更高单线程处理能力相互叠加,最终实现单机架性能的大幅提升。

 

Arm AGI CPU 已获得合作伙伴的认可,这些合作伙伴均处于代理式 AI 基础设施规模化部署的前沿领域。计划部署场景涵盖加速器管理、代理式 AI 协同调度,以及支撑代理式 AI 任务规模化扩展所需的服务、应用与工具的高密度部署,同时还包括为 AI 数据中心提供更强的网络与数据面计算能力。

 

Meta 作为 Arm AGI CPU 的早期合作伙伴与客户,参与该 CPU 的联合开发,旨在为 Meta 全系应用优化吉瓦级规模基础设施,并与 Meta 自研的 MTIA 加速器协同运行。其他首发合作伙伴包括 Cerebras、Cloudflare、F5、OpenAI、Positron、Rebellions、SAP 及 SK 电讯——这些企业均与 Arm 合作部署 Arm AGI CPU,以加速云、网络及企业环境中的 AI 驱动型服务落地。目前,永擎电子、联想及 Supermicro 已开放商用系统订购。

 

为进一步加速产品采用,Arm 推出 Arm AGI CPU 1OU 双节点参考服务器,该服务器采用符合开放计算项目 (Open Compute Project,OCP)的 DC-MHS 标准规格设计。Arm 计划向社区贡献该参考服务器设计方案及配套固件,并进一步提供包括系统架构规范、调试框架及适用于所有 Arm 架构系统的诊断与验证工具等资源。

图形处理器(GPU)因承担 AI 模型训练与运行任务而备受瞩目,而 CPU 在数据中心机架中同样扮演着不可或缺的关键角色。Arm 在主推这款 CPU 时强调,此类芯片负责处理成千上万项分布式任务,包括内存与存储管理、任务调度、系统间数据传输等。该公司表示,CPU 已成为“现代基础设施的节奏核心,保障分布式 AI 系统实现高效规模化运行”。

 

Arm 指出,这一趋势对 CPU 提出了全新要求,也推动处理器必须迭代升级。

 

与此同时,全球 CPU 供应也日趋紧张。据外媒此前报道,今年 3 月,英特尔与 AMD 均告知中国客户,受 CPU 短缺影响,产品交付周期将进一步延长。随着短缺状况加剧,电脑产品价格也已开始上涨。

 

参考链接:

https://techcrunch.com/2026/03/24/arm-is-releasing-its-first-in-house-chip-in-its-35-year-history/