此前,一些投资者开始担心,AI 硬件领域的大规模支出增长可能难以持续,从而引发对行业泡沫的忧虑。在这种情绪下,英伟达刚发布的财报不仅是公司自身的成绩单,也被市场视作整个 AI 资本开支周期的一次“压力测试”。
英伟达公布了好于预期的第四财季业绩,核心驱动力来自数据中心业务:该板块收入同比增长 75%。财报发布后,公司股价在盘后交易中一度上涨,随后回吐了大部分涨幅。
每股收益:调整后 1.62 美元,高于预期的 1.53 美元
营收:681.3 亿美元,高于预期的 662.1 亿美元
本季度,英伟达总营收同比增长 73%,从去年同期的 393 亿美元增至 681 亿美元。目前,公司超过 91% 的销售额来自数据中心部门,该部门涵盖其市场领先的 AI 芯片产品。
更关键的是业绩预测。英伟达预计下一财季营收为 780 亿美元,上下浮动 2%,明显高于分析师此前预期的 726 亿美元。公司同时强调,这一预测并未计入来自中国的数据中心收入。
黄仁勋回应各业务情况
“许多计算非常适合在太空完成”
数据中心业务本季度营收为 623 亿美元,高于 StreetAccount 统计的 606.9 亿美元预期。根据英伟达发布的新闻稿,净利润几乎翻倍,达到 430 亿美元,合每股 1.76 美元;去年同期为 221 亿美元,合每股 0.89 美元。
市场目前高度关注英伟达下一代 Vera Rubin 机架级系统的发布。Vera Rubin 预计将实现每瓦性能提升 10 倍,在数据中心面临电力约束的背景下,其能效优势尤为关键。该系统是 Grace Blackwell 的继任者,预计今年晚些时候推出。
英伟达首席财务官 Colette Kress 在电话会议上表示,公司本周早些时候已向客户发出首批 Vera Rubin 样品,并仍按计划在下半年启动量产交付。此外,Blackwell 会持续出货,同时 Vera Rubin 也会逐步进入市场。Blackwell 已经被客户写进计划与订单;Rubin 在下半年的初期爬坡规模尚难判断,但需求强度和客户兴趣没有疑问,几乎每个客户都会购买,关键在于英伟达多快进入市场、客户多快在自家数据中心把它跑起来。
当前,英伟达正在推动 Vera CPU 作为独立方案进入市场。黄仁勋透露,公司对 CPU 做了与世界上其他 CPU 完全不同的架构选择,它是唯一支持 LPDDR5 的数据中心 CPU,设计目标是极强的数据处理能力。
“因为我们关注的大多数计算问题都是数据驱动的。AI 的整个流程,从数据准备、pre-training 到 post-training,都依赖大量数据处理。很多工具运行在纯 CPU 或 CPU+GPU 环境,Vera 是为 post-training 等场景打造的优秀 CPU。在 AI pipeline 中确实有大量场景需要强大的 CPU,我们喜欢 CPU 与 GPU 协同。当你把算法加速到极限,Amdahl's Law(阿姆达尔定律)告诉你需要极快的单线程 CPU。我们当年把 Grace 做到单线程很强,而 Vera 比它更强。”黄仁勋说道。
对于芯片业务,英伟达明确称,正在将供应链从高度集中的亚洲地区拓展至美国和拉美。目前,英伟达已在 Taiwan Semiconductor Manufacturing Co. 位于亚利桑那州的新晶圆厂生产 Blackwell GPU,其部分机架级系统也在墨西哥一家大型新建的 Foxconn 工厂组装。公司认为,这些布局将增强供应链韧性与冗余,以满足不断增长的 AI 基础设施需求。但英伟达也提醒,扩产能力仍取决于当地制造生态系统能否及时提升到所需规模。
近期太空数据中心也被炒得沸沸扬扬。黄仁勋坦诚,现在太空数据中心的经济性确实很差,但会随着时间改善。
他解释道,太空的物理条件和地面截然不同。虽然太空中能量充足,太阳能板可以做得很大,空间也十分充裕,但散热方式却完全不同:太空极度寒冷,却没有空气流动,散热只能依靠传导与辐射,因此需要体积庞大的散热器。液冷在太空基本不可行,因为不仅重量过大,还可能面临冻结风险。可见,地面与太空的散热方案完全是两套逻辑。
“尽管如此,确实有许多计算问题非常适合在太空完成。我们已经让 GPU 进入太空,Hopper 架构已成功部署。一个典型的应用场景是成像:通过光学与 AI 技术,可以实现超高分辨率成像、多角度重投影、超分辨率、降噪等一系列处理。如果要将 PB 级甚至 EB 级的图像数据全部传回地球再处理,难度极大;相比之下,直接在太空完成处理,只将有价值的信息回传,无疑高效得多。可以预见,太空 AI 将催生一系列极具想象力的应用场景。”
推理性能的跃迁至关重要,推理=营收
对于未来的技术路线,黄仁勋明确表示,不会轻易走向 chiplet 方向:只要 monolithic die(单片集成芯片)还能做到极致,就应该尽量把它推到极限。因为每跨越一次 chiplet 或接口,就会引入额外的延迟和不必要的功耗。
“我们并不排斥 chiplet,事实上我们已经在使用,但只在不得不用的时候才用。”他解释道。以 Grace Blackwell 和 Rubin 架构为例,他们采用两块接近 reticle 极限(光刻掩模版尺寸极限)的大芯片并排贴合,尽可能减少架构层面的跨越。在他看来,chiplet 的“税”最终会体现在架构效率上。“很多人说这是我们的软件优势,但软件和架构其实很难分割。软件之所以高效,是因为底层架构足够优秀。CUDA 架构在每 flop、每瓦特上的效率都更强,这本质上是由架构设计方式决定的。”
他进一步指出,CUDA 具备极强的通用性,GPU 架构始终保持良好的兼容性,这意味着今天为 Blackwell 所做的优化,同样可以惠及 Hopper 和 Ampere。这也是 A100 发布多年后仍然不过时的根本原因。架构的持续兼容,让其可以持续投入软件工程和优化,让云端、本地以及各代 GPU 的装机基数全部受益,从而延长产品生命周期、提升创新速度与灵活性,最终转化为客户的实际性能优势。
谈及推理能力,黄仁勋强调英伟达的推理栈依然是全球性能最强的。“为了在 NVLink 上实现推理优化,我们必须发明全新的并行化算法,这些算法构建在 CUDA 之上,能够将工作负载高效分布到 NVLink 72 的聚合带宽上。正是 NVLink 72,让我们实现了每瓦性能代际提升 50 倍的巨大跃迁。实现过程极其困难,涉及交换技术、解耦交换、系统机柜构建等一系列突破,但最终结果令人惊叹:每瓦性能提升 50 倍,每美元性能提升 35 倍。”
他强调,推理性能的跃迁至关重要。更关键的是,对于客户而言,推理已经直接等同于营收。以 agent 系统为例,生成的 token 数量极其庞大,且效果显著。一个 agent 写代码时可能生成成千上万、甚至数十万 token,因为它需要持续运行数分钟乃至数小时。而 agentic 系统还会派生多个 agent 协同工作,token 量呈指数级增长。每一个 token 都可以被货币化,推理性能直接转化为营收。
而对于数据中心来说,每瓦特能产生的 token 数量,直接决定了云服务提供商(CSP)的营收能力,因为所有人都受限于电力。无论数据中心规模多大,总有功率上限。因此,最优的每瓦性能架构,决定了在相同电力约束下能创造多少营收。
“现在每一个 CSP、每一个 hyperscaler 都明白这个逻辑:资本支出变成算力,选择正确架构的算力,才能最大化营收。算力就是营收。没有今天的算力投资,就没有明天的营收增长。”黄仁勋总结道。
“我们已经成为全球规模最大的网络公司之一”
在数据中心板块内部,英伟达报告称,用于连接数百颗 GPU 的网络设备销售额达到 109.8 亿美元,同比暴增 263%。这一增长反映出市场对 NVLink 网络技术以及 Spectrum-X 以太网交换机的强劲需求,后者已与 Meta 等科技巨头达成新合作。
黄仁勋指出,AI 基础设施的核心计算单元包括 CPU 和 GPU。英伟达通过自研的 NVLink 技术,将单个计算节点扩展为一个巨型计算机柜,由此提出了“机柜级计算机”的概念。
在此基础上,英伟达构建了完整的互联体系:通过 NVLink 实现机柜内部的 scale-up(纵向扩展),再通过 Spectrum-X 和 InfiniBand 实现机柜之间的 scale-out(横向扩展),两种路径全面支持。更进一步,通过 Spectrum-X 的 scale-across(跨域扩展)能力,可以将不同数据中心连接起来,实现更大规模的跨域计算。
黄仁勋表示,NVLink 的发明不仅提升了计算密度,也极大地推动了公司的网络业务。以每个机柜为例,通常配备九个交换节点,每个节点包含两颗芯片,未来这一数字还会继续增加,这意味着每个机柜内部的交换规模极其庞大。
“如今,我们已经成为全球规模最大的网络公司之一。以以太网为例,我们两年前才正式进入以太网交换领域,但我认为我们现在很可能已经是全球最大的以太网网络公司,至少很快就会达成这一目标。对我们而言,Spectrum-X 以太网平台堪称一场‘全垒打’。”
他认为,当前,AI 工厂的投资规模动辄达到 100 亿至 200 亿美元,在这样的体量下,哪怕只是 10% 的效率提升,甚至是 20% 的网络利用率提升,都能转化为巨额的经济价值。这正是英伟达的网络业务能够高速增长的根本原因:把 AI 基础设施的效能做到了极致,而 AI 基础设施本身,正在以前所未有的速度扩张。
游戏业务与内存瓶颈
曾经是公司最大业务的游戏部门,本季度营收同比增长 47%,达到 37 亿美元,但环比下降 13%。市场普遍推测,在内存资源紧张的情况下,芯片制造商会优先保障 AI 处理器的产能,英伟达今年可能不会推出新款游戏 GPU。对英伟达来说,这意味着更多资源将继续向 AI 加速器倾斜,例如 72-GPU 架构的 Grace Blackwell 机架级系统。
内存短缺一直是投资者关注的潜在风险。Kress 表示,供应限制预计将在 2027 财年第一季度及之后对游戏业务形成压力。
在汽车业务方面(包括汽车和机器人芯片),英伟达本季度营收为 6.04 亿美元,同比增长 6%,低于 StreetAccount 预期的 6.548 亿美元;在专业可视化业务方面,公司本季度营收为 13.2 亿美元,同比增长 159%,显著高于 7.554 亿美元的市场预期。
与 OpenAI 合作接近达成
英伟达继续加大对 AI 实验室和行业公司的投资,包括对芯片制造商 Intel 的大额持股。公司在年度文件中披露,本年度向私营企业和基础设施基金投资 175 亿美元,“主要用于支持早期初创企业”。同时,公司提醒,这些投资可能在短期内无法实现盈利,甚至可能无法带来回报。
黄仁勋在周三电话会议中透露,英伟达仍在与 OpenAI 推进合作协议,并认为双方已接近达成。此前报道,英伟达将对 OpenAI 进行 300 亿美元股权投资,并将取代双方去年 9 月宣布的 1000 亿美元长期合作计划。
Kress 表示,战略投资是重要流程之一。与此同时,公司也在持续回购股票、发放股息,并在合适时机进行资本运作。
黄仁勋的核心判断:拐点已至,算力=营收
今年以来,英伟达股价表现优于所有超大市值同行,持续成为 AI 浪潮的最大受益者。截至周三收盘,英伟达股价在 2026 年累计上涨 5%,而纳斯达克指数同期下跌 0.4%。万亿美元市值俱乐部中,今年实现上涨的仅有 Apple,涨幅不到 1%。
在英伟达财报公布前,市场已从四大云计算巨头 Alphabet、Amazon、Meta 和 Microsoft 几周前的财报中窥见趋势:结合这些公司的资本支出指引与分析师预估,今年四家公司合计资本支出可能接近 7000 亿美元,用于扩建 AI 基础设施。英伟达也承认,超大规模云服务商仍是公司最大的客户类别,占数据中心收入略高于 50%。
问题随之出现:基数已经这么高,明年还怎么增长?更何况,其中几家的现金流能力还在被压缩。围绕这一点,黄仁勋在电话会议上给出的答案是“有信心”,而支撑信心的逻辑并不来自宏观判断,而是来自他对“AI 工作负载变化”的判断。
黄仁勋表示,他对客户现金流的增长非常有信心,“原因很简单,我们已经看到 agentic AI 的拐点出现。agents 在全球企业场景中具备了明确可用性,算力需求因此变得极其惊人。”在他的表述里,新的等式已经成立:在 AI 世界里,算力就是营收:没有算力,就无法生成 tokens;没有 tokens,就无法实现收入增长;因此算力等于营收。
他进一步解释,随着 Codex、Claude Code 的生产性使用,以及围绕 Claude Cowork 的热度、Openclaw 及其企业版带来的巨大兴奋,再加上企业 ISV 在工具平台之上构建 agentic 系统,行业已经开始生成“可盈利的 tokens”。这些 tokens 对客户具备生产力价值,对云服务商也能带来利润。计算方式正在发生迁移:过去软件运行在相对有限的计算资源之上,每年三四千亿美元资本支出;如今这些资本开支正在流向 AI。AI 要生成 tokens,就必须消耗算力,而算力会直接转化为增长与营收——这也是英伟达持续增长的底层动力。
对于未来业绩的持续性,黄仁勋把毛利率问题归结为一条简单但苛刻的标准:毛利率最重要的杠杆是代际领先能力。只要英伟达能持续交付在每瓦性能上的代际跃迁,并且这种跃迁显著超过摩尔定律带来的改进;只要每美元性能的提升能明显超过系统成本上升速度,毛利率就能维持。
他强调,公司之所以跑得快,是因为全球 token 需求在拐点之后呈指数级增长:甚至六年前的云端 GPU 仍被完全吃满、价格还在上涨,说明现代软件方式对算力的需求正在指数级扩张。英伟达的策略是每年交付一整套 AI 基础设施:今年发布了六颗新芯片,下一代 Rubin 还会发布更多芯片,并承诺每一代都带来多倍的每瓦与每美元性能跃迁。支撑这种跃迁的底层方法,是他反复提到的“极致协同设计”。
“市场判断错了”:AI 不是吞噬软件,而是让软件变强
在公司发布强劲财报数小时后,黄仁勋在采访中直言市场高估了 AI 对软件公司的威胁,认为市场对趋势的判断出现偏差。
“我认为市场判断错了,”他反驳了“AI 智能体会蚕食企业软件行业”的担忧,提出一个更“反直觉”的判断:大量软件公司会利用 agentic AI 来开发自身软件并提升效率。企业不会用 agents 去替代工具,而是用 agents 去使用工具,也就是说 agents 是“工具使用者”。
他用互联网浏览器和微软 Excel 作为例子,说明 agents 会在既有工具体系内完成工作。
在他看来,Cadence、Synopsis、ServiceNow、SAP 等工具之所以存在,是因为它们解决了非常根本的问题。agentic AI 会变成智能软件,代表人去使用这些工具,让人更高效;而像 ServiceNow 这样的公司,不会被别人“服务得更好”,反而会做出针对自身工具高度优化、微调的 agents。最终,人仍然需要工具把工作“做完”,并把信息以人能理解的方式呈现出来。
黄仁勋还在电话会议上进一步给出更长期的推演:未来软件将由 token 驱动。数据中心生成 token,推理就是生成 token。NVLink 72 让单位能耗 token 生成性能比上一代提升 50 倍。未来软件对算力的需求将远超过去:过去世界每年投入三四千亿美元用于传统计算;AI 出现后,所需算力是过去的数百甚至上千倍。如果 AI 有价值,世界就会投资来生产 token,全球需要的 token 生产能力远不止 7000 亿美元。
他认为,所有公司都依赖软件,未来每个软件都会依赖 AI,因此每家公司都会生产 token,这也是他称之为 AI 工厂的原因:云公司在数据中心建 AI 工厂,为营收生成 token;企业软件公司在工具之上生成 token;机器人与自动驾驶同样如此。
黄仁勋表示,过去的软件是预编码的,现在一切变成实时生成:结合用户上下文与意图,生成“新的软件”。实时生成的计算量远高于预编码,就像计算机远比 DVD 播放器算力强大一样,AI 需要远超过去的软件算力。从产业层面看,如果新软件需要生成并货币化 token,数据中心建设就会直接驱动营收,算力驱动营收。
他判断,agentic AI 已在最近几个月达到拐点:行业内部更早看到,但现在全球都意识到 agents 已经足够聪明,能解决真实问题,写代码已被广泛支持。以 Anthropic 为例,营收一年增长 10 倍,但受制于产能;OpenAI 同样需求旺盛。算力上线越快,营收增长越快。下一波拐点将是 physical AI,把 AI 与 agentic 系统带入制造、机器人等物理世界应用,这是巨大的机会。
尽管一些分析师警告长期来看 AI 可能会“吞噬”软件行业,但对这一风险以及近期软件板块抛售背后的基本面因素,市场观点仍分裂。
在黄仁勋接受采访后,Niles Investment Management 创始人兼投资组合经理 Dan Niles 提醒市场:铁路、运河、互联网等基础设施在发展过程中往往会出现过度建设,之后市场才会逐渐分辨赢家和输家。他警告,并非所有公司都能在 AI 自动化工作流程、压缩价格、降低新进入者门槛的趋势下全身而退,“软件行业里确实会有一些公司最终走向归零”,相对更具韧性的板块可能是数据库与网络安全。
参考链接:





