黄仁勋凌晨炸场:6G、量子计算、物理 AI、机器人、自动驾驶全来了!AI 芯片订单已达 3.5 万亿|2025GTC 最全指南

  • 2025-10-29
    北京
  • 本文字数:4576 字

    阅读完需:约 15 分钟

本周可谓美国科技行业的“超级周”,而号称“AI 风向标”的英伟达 GTC(GPU Technology Conference,GPU 技术大会)也于美东时间 10 月 27 日开幕

10 月 28 日,黄仁勋依旧身着皮衣登场。但与以往有明确重点的发布会不同,老黄此次演讲几乎把全球科技圈的热词悉数点了一遍:6G、量子计算、物理 AI、机器人、自动驾驶、核聚变...一个没落下。

他还官宣了一个跨次元般的重磅消息:

英伟达和诺基亚合作了,用 AI 提高无线通信的速度,共同建造面向 AI 原生的移动网络,搭建 6G AI 平台;为此,英伟达推出新品 NVIDIA Arc(Aerial Radio Network Computer),还将对诺基亚投资 10 亿美元(约合人民 71 亿元)。

也就是说,AI 不再只是网络的使用者,还成为了网络本身的“智能中枢”。

黄仁勋直言:“我们将采用这项新技术,升级全球数百万个基站。”

值得一提的是,老黄这次(可能下次血本了)不仅演讲话题涉猎甚广,还组建了一支超级“嘉宾足球队”,在一众大佬中,具身智能当红新星 Figure AI 创始人兼 CEO Brett Adcock(第二行左四)也赫然在列。

话说回来,英伟达 AI 芯片的成绩也着实亮眼:Blackwell 和 Rubin 芯片订单总额,已达 5000 亿美元(约合人民币 35,000 亿元)。

在今年 3 月的春季 GTC 大会上,老黄曾秀出最强 AI 芯片 GB300 NVL72,其中“G”是该芯片中的 CPU 架构 Grace“B”是 GPU 架构 Blackwell,也是英伟达现在主推的数据中心 GPU 架构。

截至当日收盘,英伟达股价涨约 5%,总市值逼近 5 万亿美元(约合人民币 35 万亿元),创下新高。

次元壁破了:和老牌手机霸主一起搞通信

在这次 GTC 上,老黄官宣的第一个合作协议,就是和诺基亚携手共建 6G AI 平台。

二者此次合作重点不在“造芯片”,而在“让网络学会思考”:英伟达把其加速计算平台 Aerial RAN Computer Pro(ARC-Pro),带进诺基亚的无线通信系统 AirScale 中,推动运营商向 AI 原生的 5G 与 6G 网络过渡。

话说,诺基亚这个零几年的全球手机霸主、听起来好像是个“上古战神”,现在为什么会出现在英伟达的合作名单上,而且还被放在超级显眼位置?

首先,其实诺基亚“没死”,它只是卖掉了手机业务,退回了“根部”的通信设备业务

2013 年,在卖掉手机部门给微软之后,诺基亚彻底转向电信基础设施:基站、天线、光纤网络、核心网软件——全球运营商的底层网络都离不开这些。

2016 年,诺基亚收购了阿尔卡特朗讯——这是由传奇的“贝尔实验室”(曾获 9 项诺贝尔奖、4 项图灵奖)改组重建的公司,然后就自然而然地继承了贝尔实验室一堆领先的技术和专利;收购后,贝尔实验室也更名为 Nokia Bell Labs。

如今的诺基亚和华为、爱立信并列,是全球三大通信设备厂商之一。

第二,英伟达做芯片的终极目标,其实不是“更强的 GPU”,而是让所有计算都发生在“靠近数据产生的地方”——也就是网络边缘,而这正是诺基亚的主场。

英伟达提供 ARC-Pro 平台:让通信基站不仅传信号,还能执行 AI 推理;诺基亚则提供 AirScale 无线系统和 RAN 软件栈:让这些“AI 基站”融入现有的 5G 网络,并能平滑升级到 6G。另外,T-Mobile 是他们的首个运营商合作方,将在 2026 年开始实地测试。

简单来说,就是英伟达把 GPU 算力塞进基站,诺基亚负责让它能在真实的网络中跑起来。

正如黄仁勋在发布会上所说的:“基于 NVIDIA CUDA 和 AI 的 AI-RAN,将彻底改变电信行业,这是一次跨时代的平台变革。”

英伟达的官方新闻稿也指出,此次合作标志着行业的转折点,通过在全球范围内推动 AI-RAN 的创新和商业化,为 AI 原生 6G 铺平了道路。

在诺基亚之外,黄仁勋还一口气官宣了几家合作伙伴:从自动驾驶巨头 Uber、政府 AI 供应商 Palantir 到与美国能源部、甲骨文达成战略合作——几乎覆盖了 AI 产业的每一个关键环节,暗含其野心。

先是 Uber。黄仁勋认为“机器人出租车的拐点即将到来”,双方计划在全球铺开 10 万辆自动驾驶汽车。这不仅是自动驾驶的突破,更是 AI 硬件与智能算法的深度融合——英伟达正试图让 GPU 成为 Robotaxi 时代的“车载大脑”,推动出行生态进入商业化阶段。

接着是 Palantir。这家擅长处理政府和军情数据的公司,将把英伟达的 CUDA-X 和 Nemotron 模型嵌入自家系统,让 AI 学会“看懂”世界。Lowe’s 已经在用这套组合调度它的供应链——AI 代理成了企业的隐形决策官。

不过更大胆的布局在科研领域,与美国能源部、甲骨文联手打造七台 AI 超级计算机。其中阿贡实验室的 Solstice 与 Equinox 系统,将以 2,200 exaFLOP 的惊人算力,成为“美国的探索引擎”。

从 Robotaxi 到政府级 AI 决策,再到超级计算,英伟达不再“造芯片”,而是在“造智能的地基”。

前沿科技话题“大点兵”

前文提到,老黄这次的演讲涉及多个话题,除了 6G,还有量子计算、物理 AI、机器人、自动驾驶等;下面来具体看几个。

1、量子计算

自理查德·费曼提出量子计算概念起,40 年后,业界终于在去年实现了关键突破——创造出可相干、稳定、且具纠错能力的逻辑量子比特(logical qubit)

英伟达此前推出了开放式量子 GPU 计算平台 CUDA-Q,这次又开发了一个基于 CUDA-Q 核心构建的 NVQLink,是一种能把传统 GPU 和量子处理器连接起来的互联架构。

当下的量子计算仍处在“易碎”阶段——对环境噪声异常敏感,且算力利用率有限。为了让量子比特保持稳定运行,往往要借助 GPU 超算系统承担控制与纠错计算,这让量子计算暂时还离不开经典计算的“辅助臂”。

黄仁勋分享称,英伟达将与美国能源部合作建设 7 台 AI 超级计算机,这些超算将使用 Blackwell 和下一代 Vera Rubin 架构芯片,利用 AI、量子计算等最前技术投入研究。

老黄还化身“AI 赛道的美国队长”,举起了他的“芯片盾牌”:由 NVLink 连接的 72 块 GPU 构成。

2、具身智能和物理 AI(Physical AI)

对于具身智能与机器人计算,英伟达的理念是,如果要让 AI 真正进入物理世界、具备感知和行动能力,必须依托一个“三计算机”体系:

一是用于模型训练的 Grace Blackwell AI 计算机,负责生成大规模智能模型;二是用于仿真和虚拟验证的 Omniverse 数字孪生计算机,在虚拟环境中模拟机器人行为与物理交互;三是用于实际执行的 Jetson Thor 机器人计算机,让智能在真实世界中运行。

这三者都基于 CUDA 平台运行,形成从训练、仿真到执行的完整“物理智能”闭环,使 AI 能够真正连接虚拟与现实世界。

英伟达投资过多家具体智能公司,和美国具体智能新独角兽 Figure AI 也在开展合作,加速下一代机器人的研发。

3、开源模型与生态合作

英伟达在开源模型和产业生态上正展开双线布局。

一方面,得益于推理、多模态与知识蒸馏等能力的提升,开源模型已经足够强大,成为初创企业和科研机构进行灵活定制与创新的基础。英伟达作为开源社区的重要贡献者,已有 23 个模型登上各类性能榜单,并承诺将持续投入。

另一方面,英伟达正加速与云计算和行业伙伴的深度集成:其模型与库已嵌入 AWS、Google Cloud、Microsoft Azure 等主流云平台,以及 ServiceNow、SAP 等 SaaS 系统,使用户能够在不同生态中无缝调用 AI 能力。

同时,英伟达还与 CrowdStrike(网络安全)、Palantir(数据处理)和 Synopsys(芯片设计)等行业巨头合作,以 AI 提升垂直领域生产力,推动从安全到设计的智能化变革。

4、AI 在聊天机器人之外的更多应用

AI 被广泛用于基础科学研究,远不止聊天或生成内容。在医疗、基因组学、企业计算等领域都有应用。不同类型的模型(卷积神经网络 CNN、图神经网络 GNN、状态空间模型等)被用于不同任务。

AI 不仅是工具,也能成为“数字员工”。例如英伟达内部的 Cursor 系统可帮助工程师自动生成代码;AI 驾驶员(AI Chauffeur)则被用于自动驾驶出租车。

老黄还亲自详解:AI 到底是什么?

在 GTC 大会上,除了抛出一个又一个爆炸性的技术新动向,黄仁勋还特意拿出 20 分钟,讲了一堂“AI 是什么”的深度课。

在他看来,这件事十分必要——如果没弄清 AI 的定义,就无法判断下一场产业潮水将流向何处。

黄仁勋首先澄清一个误区:AI 的世界远不止 ChatGPT 所代表的聊天机器人,那只是大众心中的 AI 形象。真正关键的,是以 AGI 为代表的深层计算机科学,以及支撑它的惊人算力,“AI 不是某个应用,而是一种新的计算方式。”

过去的计算世界,是程序员写规则、计算机执行命令;现在,机器靠数据自己学习规律。

比如,以前要教电脑识别猫,你得写几十条规则;如今只需给它十万张猫的照片,它自己就能学会什么是“猫”。

这场转变包含三层逻辑:计算方式变了——从写代码变成喂数据;计算工具变了——从 CPU 到 GPU;计算目标也变了——从执行任务到生成智能。AI 由此彻底重构了计算栈。

换句话说,AI 正在从“螺丝刀”变成“工人”。

它不再是被动的工具,而是主动的执行者——会使用浏览器、写代码、制定计划、理解需求。

当技术第一次具备了“做事”的能力,机器也第一次进入了生产力的核心。

有了学习能力,AI 看世界的方式也彻底不同。

在它的眼中,万物都被拆解成可学习的片段:文字、图片、声音、分子、蛋白质……这些最小的信息单位叫作 token。

AI 通过这些“语言颗粒”去理解、模仿、重建世界。谁能以更低成本、更高速度生成和操控 token,谁就能主导下一代计算。

这也催生了一种全新的基础设施——AI 工厂。

如果传统数据中心像多功能仓库,负责存储文件、运行程序,那么 AI 工厂就像一条生产线,只做一件事:生产 token。

能源流入,驱动 GPU;GPU 通过 NVLink 和 Spectrum-X 网络连接成超级系统;软件与模型协同工作,批量产出 token。

黄仁勋把这条链概括成一句话:

“能源 → GPU → 算法 → 模型 → Token → 智能。”

AI 的成长轨迹,也像一个“吃电的天才”。

它先在预训练阶段“学语言、记知识”,像学前班;

后在后训练阶段“学技能、学推理”;

最后进入“思考阶段”,在与你互动时实时规划、推理——那是最消耗算力的时刻。

AI 越聪明,就越费电。这是第一条指数——AI 使用指数:智能与算力的爆炸式增长。

但还有第二条曲线——AI 采用指数:AI 越好用,越多人使用;使用越多,算力需求又被推高。

两条指数叠加,形成了一个强劲的正反馈——AI 越聪明,体验越好;越好用,用户越多;越多的使用带来更多利润,又反过来推动 AI 变得更聪明。

面对算力需求如此巨大,要让这台“永动机”持续转动,黄仁勋的答案是“极致协同设计(Extreme Co-Design)”。

摩尔定律的线性提升早已赶不上 AI 的指数爆炸,必须在芯片、封装、互联、系统、编译器、模型、算法、应用等每一层同时创新。

他说:“要让 AI 继续前进,不能只造更快的芯片,而要重新设计整座工厂。”

这座“工厂”,就是未来的 AI 工厂。

在黄仁勋眼中,它不再是通用数据中心,而是一条智能的生产线——能源是燃料,GPU 是引擎,模型是模具,Token 是产品。

算力不再是辅助资源,而是新的生产资料。只有不断压低成本、扩大产能,AI 的良性循环才能继续。

这就是未来计算的形态。

AI 工厂将成为现代经济的新基础设施,从科学、医疗、制造到娱乐,所有行业都将围绕 AI 工厂重构。

从 Arvin 在 Perplexity 的工作、软件开发中的 Cursor,到机器人出租车中的 AI 司机。人工智能正快速渗透到过去难以触及的经济领域,占据越来越广阔的版图。

那 20 分钟里,他讲的其实不只是 AI,而是人类第一次拥有一种能把能量直接转化为智能的机器。

未来的计算,不再是让电脑执行命令,而是让世界自己学会思考。

老黄演讲视频回看地址:

https://www.youtube.com/watch?v=lQHK61IDFH4&list=TLGG23pf8VjteXoyODEwMjAyNQ

参考链接:

https://nvidianews.nvidia.com/news/nvidia-nokia-ai-telecommunications

https://www.reuters.com/world/asia-pacific/nvidias-huang-speak-washington-investors-look-hints-china-2025-10-28/