
周末,英伟达正式推出 CUDA Toolkit 13.1 —— 自 2006 年推出 CUDA 平台以来,官方称这是“20 年来最大、最全面的一次更新”。
此次版本带来了多项重大变革,其中最引人注目的是新加入的 CUDA Tile 编程模型。通过 Tile(块/片)为单位编写算法,开发者得以在比传统 SIMT(单指令多线程)更高抽象层上构建 GPU 程序,底层细节,如张量核心(Tensor Core)调用,将由编译器与运行时负责分配与管理。
那么,核心亮点有哪些?一句话概括,就是 Tile 编程以及更友好的资源管理。具体而言:
CUDA Tile:作为一个全新的 tile-based 编程模型,CUDA Tile 引入了一套虚拟指令集(Virtual ISA,CUDA Tile IR),使开发者可直接对数据块(tile)进行操作,而不必关注线程、warp、tensor core 等底层结构。这样写出来的代码不仅更简洁,而且具备跨代 GPU 的兼容性,有望极大提升 AI 与高性能计算算法开发效率。
绿色上下文 (Green Context) 的 Runtime API 暴露:13.1 版本将 green contexts(即一种轻量级、可并发调度的执行上下文)暴露给用户,使得程序可以更灵活地管理 GPU 资源。对于并行任务、资源隔离、多任务共存场景,这是一项显著改进。
cuBLAS 精度仿真增强:在数学库 cuBLAS 中,新增了对双精度与单精度的仿真支持,这对于一些对数值精度有较高需求的科学/工程计算非常重要。
文档与工具链全面更新:英伟达还全面重写了 CUDA 编程指南,适合从新手到高级开发者,同时更新了工具链与库,使得整个 CUDA 平台在稳定性、易用性上都有显著提升。
其实一直以来,英伟达即便在 AI 芯片领域占据主导地位,但依然保持快频率的技术迭代,这与 CEO 黄仁勋多年来从未松懈过不无关系。
乔布斯有句家喻户晓的名言:“Stay hungry, stay foolish.”
而黄仁勋则以另一种方式,把这种精神贯彻了 33 年——保持恐惧,保持清醒。
他说自己每天醒来脑海里都有一个声音:“距离破产,还剩 30 天。”这种持续三十多年的紧迫感,几乎成为他独特的“生存本能”。
在美国最受欢迎的播客《The Joe Rogan Experience》中,英伟达创始人黄仁勋第一次如此坦率地谈及自己的心理驱动力:支撑他一路走下来的,不是野心,而是长期笼罩的危机感。
在这段访谈中,黄仁勋回顾了英伟达最惊险、也最具决定性的创业阶段——从错误的早期战略、濒临破产的现金流,到押上公司未来的技术重构与一次性量产的豪赌。
他讲述了公司上市后全面收缩战线、关闭错误方向,三位架构师抱着从 Silicon Graphics 教科书学来的理念,重新发明 3D 图形技术,并将百万级工作站性能压缩进一张 PC 显卡,为电子游戏时代奠定技术基座。
在最缺资金的时刻,他用仅剩资金买下倒闭公司库存的模拟器,以便在出第一片硅前把所有软件调通;随后又说服当时规模仍小的台积电,在没有试产的情况下直接量产新品——一次失败就会让英伟达消失的决定。
这些看似疯狂的选择构成了英伟达的转折点,也成为后来 GPU 计算与现代 AI 崛起的源头。在访谈末尾,黄仁勋说自己至今仍保持“公司 30 天内可能破产”的危机感。对他而言,这种持续的紧绷与不愿失败的驱动力,是英伟达得以不断突破的重要原因。
以下为访谈实录,经 InfoQ 翻译及整理:
“过去两年,AI 技术能力提升了 100 倍”
主持人: 当我们在谈论技术增长和能源增长时,很多人会说:“这不是我们需要的,我们需要简化生活,回归自然。”但真正的问题是我们正处于一场巨大的技术竞赛中。不管人们是否意识到,喜欢与否,它正在发生。这是一场非常重要的竞赛,因为谁先到达 AI 的“事件视界”(Event Horizon),谁就拥有巨大的优势。你同意吗?
黄仁勋:首先,我同意我们正处于一场技术竞赛中,而且我们一直都在技术竞赛中。自从工业革命以来,我们就一直在与某人进行技术竞赛。自曼哈顿计划以来,甚至可以追溯到能源的发现,我们都在竞赛。英国是工业革命的发源地,当时他们意识到可以将蒸汽转化为能源,转化为电力。所有这些主要是在欧洲发明的,而美国抓住了它。我们从中学习,我们将其工业化,并比欧洲任何地方传播得都快。他们都陷入了关于政策、就业和颠覆的讨论中,而美国正在形成。我们只是采用了技术,并付诸实践。
所以,我认为我们一直都在某种技术竞赛中。二战是一场技术竞赛,曼哈顿计划是一场技术竞赛。冷战期间也一直是技术竞赛。我认为我们仍然处于技术竞赛中。它可能是最重要的一场竞赛。技术为你提供了超能力。无论是信息超能力、能源超能力还是军事超能力,都建立在技术之上。因此,技术领导力至关重要。
主持人:看起来在 AI 竞赛中,人们非常紧张。比如埃隆(马斯克)曾说过,有 80% 的机会会很棒,20% 的机会我们会陷入麻烦。人们理所当然地担心那 20%。对于这个问题你怎么看?
黄仁勋: 我认为它可能会比我们想象的渐进得多。它不会是一个瞬间,不会像某人突然到达而其他人都没有。我不认为会是那样。我认为它只会像技术一样,不断变得越来越好。
主持人: 所以你对未来持乐观态度?你对 AI 即将发生的事情非常乐观。
黄仁勋: 当然,我们制造着世界上最好的 AI 芯片,所以最好保持乐观。如果历史可以借鉴,我们一直都对新技术感到担忧,但这不是什么不好的事情,因为所有这些担忧最终都会被引导,使技术更安全。
例如,在过去的几年里,我认为 AI 技术的能力,仅在过去两年里,就可能提升了 100 倍。那么,我们如何引导这种技术?我们如何引导所有这些力量?我们将其导向让 AI 能够思考,这意味着它可以接受我们给它的问题,逐步分解,在回答之前进行研究。因此,它以事实为基础,会反思答案,问自己:“这是我能给出的最好答案吗?我对这个答案确定吗?”如果它不确定或信心不足,它会回去做更多的研究。它甚至可能会使用工具,因为工具提供了比它自己幻觉更好的解决方案。
结果是,我们将所有这些计算能力引导到产生一个更安全、更真实的结果和答案上。正如你所知,早期对 AI 最大的批评之一就是它会产生幻觉。如果你看看今天人们如此频繁地使用 AI 的原因,就是因为幻觉的量减少了。
大多数人想到力量,可能想到的是爆炸性的力量。但技术的力量,大部分被导向了安全性。今天的汽车更强大,但驾驶起来更安全。很多力量被用于更好的操控。
主持人: 所以当你定义“安全”时,你定义的是准确性和功能性?
黄仁勋: 对,就是让它能完成你期望它做的事情。就像今天的汽车里用到的 ABS(防抱死制动系统)。没有汽车里的计算机,你怎么做到这些?技术增强它导向的是更精细的思考、更多的反思、更多的规划、更多的选择。
主持人: 但人们最大的担忧是军事应用。人们非常担心 AI 系统会做出某些可能不符合伦理或道德的决定,因为这些系统往往是基于实现目标而非考虑后果的。你怎么看这一问题?
黄仁勋: 我很高兴我们的军队会使用 AI 技术进行防御。我很高兴看到所有这些科技初创公司现在将他们的技术能力导向国防和军事应用。我认为我们必须这样做。
未来二十年 AI 会发展成什么样?
主持人: 当你展望 AI 的未来时,你刚刚说没人真正知道会发生什么,你是否会坐下来思考各种情景?你认为未来二十年 AI 的最佳情景是什么?
黄仁勋: 最佳情景是 AI 融入我们所做的一切,一切都更高效。但战争的威胁仍然是威胁。网络安全仍然是一个超级困难的挑战。总有人会试图突破你的防线。你会有数以千计、数以百万计的 AI Agent 来保护你免受威胁。你的技术会变得更好,他们的技术也会变得更好。
主持人: 人们最大的担忧之一是,技术会发展到加密技术将被淘汰,不再能保护数据和系统。你预见到这会成为一个问题吗?还是认为随着防御的增长,它就能永远抵御任何入侵?
黄仁勋:不可能“永远”挡住所有入侵。网络安全之所以有效,是因为防御技术与攻击技术都在快速进步。虽然并非所有入侵都能被阻挡——总会有一些攻击成功突破防线,但我们会从中吸取教训、持续改进。网络安全防御的一大优势在于,整个社会、整个社区以及所有公司都在共同协作、形成合力。这一点许多人并未意识到。实际上,存在一个由网络安全专家构成的共同体,我们在此交流想法、分享最佳实践、通报检测到的新情况。一旦出现系统被攻破或发现漏洞,相关信息会立即共享给整个社区,相应的补丁也会迅速向所有人开放。
主持人: 这很有趣。我以前不知道。我以为这会像其他所有事情一样,都是竞争性的。
黄仁勋: 我们一起努力,这种情况持续了大约 15 年。
主持人: 你认为是什么开启了这种合作?
黄仁勋: 人们认识到这是一个挑战,没有一家公司可以独善其身。AI 也会发生同样的事情。我认为我们都必须决定共同努力,以避免受到伤害,这是我们最好的防御方式。
主持人: 你预见到未来会有某个时候,秘密将不复存在吗?信息都是一堆一和零,技术能越来越多地获取这些信息。会不会有一天,没有办法保守秘密?
黄仁勋: 我不这么认为。量子计算机本该,量子计算机将使以前的加密技术过时。但这正是整个行业正在研究后量子加密技术的原因。
主持人: 那会是什么样的?
黄仁勋: 新的算法。量子计算拥有的力量十分惊人。它可以在几分钟内解决那些让世界上所有超级计算机花费数十亿年才能解决的方程。我知道有一群科学家正在研究这个问题。
主持人: 终极恐惧会不会是:它无法被攻破,量子计算将永远能解密所有其他的量子计算加密?
黄仁勋:我不认为会发展到某一点, AI 不会像从“穴居人”突然跳到“外星文明”那样。我们每一天都在变得更好、更聪明。我们站在我们自己的 AI 的肩膀上前进。所以当 AI 威胁来临时,它只是领先了一步,而不是领先了一个星系。所以我认为,那种 AI 会凭空出现,并以我们无法想象的方式思考,做出我们无法想象的事情的想法是牵强的。
主持人: 但它们不会做一些非常令人惊讶的事情吗?
黄仁勋:确实会有这种情况。但假设你的 AI 做了一件令人惊讶的事,我这边也会有一个 AI。我的 AI 在观察你的 AI 时,可能会说:“那其实也没那么令人惊讶。”
我们这些普通人所担心的恐惧,往往是担心 AI 会变得有感知,能够自己做决定,并最终决定统治世界——比如它们可能会说:“人类做得不错,但现在该由我们接管了。”
不过,我的 AI 会保护我。这其实类似于网络安全的逻辑:你有一个超级聪明的 AI,但我也有一个同样超级聪明的 AI。假设我们理解了什么是意识和感知,并且它们确实存在——如果你的 AI 具备意识,我的 AI 也同样具备。
假如你的 AI 想做些出人意料的事,我的 AI 非常聪明,可能并不会感到意外。虽然对我而言或许惊讶,但我的 AI 不会。就算我的 AI 最初也觉得意外,但它足够聪明,第一次见到之后,第二次就不会再惊讶了。这和我们人类学习的过程其实很像。
AI 不会获得意识
主持人:你提到你不相信 AI 会获得“意识”,你对“意识”或“感知力”的定义是什么?
黄仁勋:对我来说,意识首先你需要知道自己的存在。你必须拥有体验,而不仅仅是知识和智能。一台机器拥有体验的概念……我不知道如何定义体验。意识是对体验的感觉,是认识自我与能够反思、认识我们自己、自我感。我认为所有这些人类体验大概就是意识。但它为何存在,以及与知识和智能的概念有何不同?AI 是由知识和智能定义的。我们称之为人工智能,而不是人工意识。感知、相信、识别、理解、规划、执行任务的能力,这些都是智能的基础。它显然与意识不同。
主持人: 我的意思是,狗没有意识吗?
黄仁勋: 狗似乎很有意识。它们感受很多。它们会依恋你。你不在时会抑郁。所以它们当然有意识。
主持人:AI 不是在与社会互动吗?那么,它是否通过这种互动获得了经验?
黄仁勋: 我不认为互动就是经验。我认为经验是……经验是情感的集合。
主持人: 你知道那个 AI 吗?我忘了是哪个了,他们给了 AI 一些关于其中一个程序员与他妻子有外遇的虚假信息,只是为了看看 AI 会如何反应。然后当他们说要关闭它时,AI 威胁要敲诈程序员,并揭露他的外遇。当时大家就觉得:“哇哦!”它很狡猾。如果那不是从经验中学习,并意识到自己即将被关闭它也不会进行威胁,如果它的能力呈指数级增长,那最终会不会导致一种不同于我们从生物学上定义的意识?
黄仁勋:嗯,首先我们来分析一下它可能的行为逻辑。它或许是从某个地方读到过类似的描述——可能有些文本记载了人在面临这种处境时会如何反应。
我可以想象,某本小说里可能就出现过相关的词语和情节。所以在它的内部,只是识别出了一种“生存策略”。本质上,那不过是一组数字:与“丈夫对妻子不忠”相关的数字集合,后面关联着另一串与“敲诈”或类似行为相关的数字。不管具体是报复还是什么,它只是根据这些关联输出了相应的词语。这就好比如果我让它以莎士比亚的风格写一首诗,它也只是在这个多维的语言空间里,把世界上相关的词语组合输出而已。那些描述外遇的提示词,触发了后续一连串的词语延伸,最终形成了某种带有报复意味的回应。但这并不是因为它有了意识,它只是在生成词语。
主持人: 我理解你的意思,你想说这是人类在文学和现实生活中表现出的模式,对吧?
黄仁勋:完全正确。
主持人:可是,如果有一天,人们回顾过去时说:“看,两年前它还做不到这个,四年前它也做不到那个。”当我们展望未来,当 AI 能做到人类能做的一切时,我们究竟要在哪个时间点判定它拥有了意识?如果它只是完美模仿了人类的全部思维和行为模式,那并不等于它就有意识——可那时它已经变得真假难辨了。它能以和人完全相同的方式与你交流,这难道不就像是某种意识的体现吗?我们是不是过于执着“意识”这个概念了?因为它看起来已经很像意识的某个版本了。
黄仁勋:它只是“模仿的版本”——模仿意识,对吧?即便模仿得再完美,我依然认为那是模仿。就像一块完美的高仿劳力士手表。问题在于:我们如何定义意识?
主持人:对,这正是关键。我觉得并没有人真正清晰定义过它。
黄仁勋:是的,所以问题开始变得模糊,这也是那些持末世论观点的人所担心的——他们认为我们正在创造一种自己无法控制的意识形态。
我相信我们可以创造出一台能够模仿人类智能的机器,它可以理解信息、理解指令、分解问题、解决问题并执行任务。对此我完全相信。
我认为我们可以拥有一个具备海量知识的计算机系统。这些知识中,有些是真实的,有些是虚假的;有些是人类生成的,有些是合成生成的。而且,未来世界上越来越多的知识将是合成生成的。
要知道,一直以来,我们所拥有的知识都是由人类生成、传播、互相传递、放大、增减和修改的。但在未来,可能两三年后,世界上 90% 的知识很可能由 AI 生成。
主持人:这听起来太不可思议了。
黄仁勋:我知道。但这没关系。让我解释为什么:我从一本由一群我不认识的人编写的教科书里学习,和从一台整合所有信息并重新合成知识的 AI 计算机里学习,对我来说有什么区别呢?我认为并没有太大区别。我们依然需要核实事实,依然需要确保它基于基本的原理,依然需要做所有这些工作——就像我们今天所做的一样。
主持人:考虑到当前 AI 的发展现状,你是否预见到——就像我们十年前从未真正相信 AI 会像今天这样无处不在、如此强大和重要一样——十年后我们会看到什么?你如何想象那时的情景?
黄仁勋:我觉得,如果你回顾过去十年,你也会说同样的话:我们当时绝不相信会发展成今天这样,虽然方向可能不同。但如果你站在九年后的时间点,再问自己十年后会怎样,我认为变化会是相当渐进的。
AI 全面进化后,人类将何去何从?
主持人:埃隆·马斯克说过一个让我很兴奋的观点:他相信我们会进入一个人们不需要工作的阶段。这并不是说人生没有目标,而是用他的话说,人们会享有“普遍高收入”,因为 AI 创造了大量财富,从而消除人们为了赚钱而从事自己不喜欢的工作的必要性。但很多人对此感到不安,因为他们的全部身份认同、自我认知以及社会归属感,都和工作紧密相连。比如,这是迈克,他是一位出色的机械师——找迈克,他就能搞定。可如果有一天,AI 能比人类做得更好,人们虽然能得到钱,但迈克该怎么办?迈克真心喜欢成为最棒的机械师。
还有那些写代码的人,当 AI 能够以无限速度、零错误地编码时,他们又该做什么?这些人的出路在哪里?问题就变得微妙了,因为我们人类往往把身份认同和谋生职业绑定在一起。认识一个人时,你问的第一句话往往是:“你是做什么的?”如果迈克回答:“我从政府领钱,整天打游戏。”那感觉就太奇怪了。
黄仁勋:是的,这个问题很有意思……我们或许可以从一个更实际的起点开始讨论,再倒推回来,你看可以吗?
我想以深度学习的奠基人——杰夫·辛顿教授为例。他是多伦多大学的杰出研究员,提出了“反向传播”这一核心思想,让神经网络真正学会了“学习”。
对大众来说,传统软件是人类运用第一性原理,将思维转化为算法,再编写成程序,就像一份食谱。而在深度学习中,我们构建的是一个庞大的神经网络结构。我们输入它最终需要处理的数据,然后让它“随机猜测”输出应该是什么。
举个例子:输入一张猫的图片。这个复杂网络的某一端应当输出代表“猫”的信号。当输入是猫时,其他输出(狗、大象、老虎等)都应接近零,只有“猫”的信号应接近一。我们通过这个由无数数学单元组成的网络输入猫的图片——这些单元仅仅在做乘法和加法。网络规模非常庞大:输入信息越多,网络就需越大。
杰夫·辛顿发明的方法是:先让网络猜测——输入猫图,它给出一个结果。正确答案是“猫”,于是我们增强“猫”的信号,抑制其他信号,并将这个调整反向传回整个网络。接着再输入一张狗图,它可能又输出一堆杂乱结果。我们再次纠正:“不,正确答案是‘狗’。请输出‘狗’,其他输出归零。”然后再反向传播这次修正。如此反复进行。这就像教孩子认物:“这是苹果,这是狗,这是猫。”不断展示、纠正,直到他们学会。
总之,这项伟大发明就是深度学习,它是当代人工智能的基础——一种能够从例子中学习的软件。
其最重大的应用之一是图像识别,而图像识别中至关重要的领域就是放射学。大约五年前,有人预测:五年后,AI 将彻底改变放射学,不再需要放射科医生。如今我们看到,这个预测完全正确——AI 已全面融入该领域。今天,几乎所有的放射科医生都在以某种形式使用 AI。
然而颇具讽刺意味且耐人寻味的是,自那以后放射科医师的数量反而增加了。这就引出了一个值得玩味的问题:为什么会这样?
当时的预测认为,AI 会让放射科医生消失,但现实恰恰相反,我们需要的放射科医生更多。原因是:放射科医生的真正目的不是阅读影像,而是“诊断疾病”。
阅读影像只是为了诊断服务的一个步骤。现在 AI 能更快、更精准地分析图像,从不犯错,也不会疲劳——它能处理更多影像,能把 2D 图像变成 3D、甚至 4D 来分析。AI 不在乎维度,它都能做。
因此,AI 能以人类做不到的方式、更大规模地研究影像,让医院可以为更多患者做检查,提高服务量。这反过来改善医院的经济状况,于是医院会雇佣更多放射科医生,因为医生真正的价值是诊断疾病,而不是看图。
主持人:所以你最终想说的是:关键要看一份工作的“目的”是什么?比如律师的目的是否改变了?
黄仁勋:对,我们要回到“工作的目的”本身。我举个例子:如果汽车实现完全自动驾驶,所有司机会失业吗?可能不会。因为有些司机承担的不只是驾驶,而是保护、服务、体验的一部分。
所以有些司机会失去工作,但许多司机会转型,而自动驾驶也会催生新的应用。
同样地,如果 AI 出现,我不认为我会失去工作,因为我的工作目的不是“看文件”“查邮件”“看技术图”。这些都是任务,不是目的。人的工作目的通常没变,变的是完成任务的方式。律师也是——他们的目的仍然是“帮助别人”。阅读法律文件、生成文书只是手段,而不是目的。
主持人:但你不觉得 AI 会取代很多工作吗?尤其是那些本质上就是“执行任务”的职业?
黄仁勋:会的。如果你的价值只是“做任务本身”,那就很危险。但 AI 同时也会创造大量新工作。例如:假设我对马斯克做的人形机器人非常兴奋,虽然还有几年才会普及。但一旦普及,就会出现一个全新的产业——机器人制造、维护、维修的技术人员。这些工作以前不存在。
汽车问世后才出现汽车技工、加油站、改装等行业。未来机器人也会催生“机器人服饰”“机器人维护”“机器人个性化”等全新产业。
主持人:你不认为这些工作未来也会被机器人自动化吗?最终是不是只有那些不是“执行任务”的工作才会幸存?
黄仁勋:即便机器人彼此维护,也会不断催生新需求、新工作。关键是:你的工作必须有“超越任务”的意义。如果你的工作只是“切菜”,那厨房机早就能代替你了。人们必须寻找更有意义的部分。
如何看待马斯克提出的全民基本收入(UBI)?
主持人:你怎么看马斯克关于“全民基本收入(UBI)将成为必要”的观点?像 Andrew Yang 也提出过类似的看法。
黄仁勋:我认为两种极端情况不会同时发生:一种说法是:未来 AI 带来“资源极大丰富”,人人都富裕,不需要工作。另一种说法是:我们需要全民基本收入来维持生活。这两者不可能同时成立。要么人人富裕,要么人人需要补贴。
主持人:那你觉得“人人富裕”可能吗?如何实现?
黄仁勋:富裕不一定意味着“每个人都拥有很多钱”,而是“资源极大丰富”。就像今天我们对“信息”非常富有——几千年前只有极少数人能获取知识。未来,许多现在被认为稀缺的资源,会因为自动化而变得廉价、易得。
主持人:听起来你认为很难预测很远的未来?
黄仁勋:对,非常难,因为变量太多了。但未来 5–10 年,我有几个“相信并希望”能够发生的趋势:
趋势一,AI 会大幅缩小技术鸿沟,而不是扩大。反对者会说 AI 会加剧差距,因为它昂贵,需要能源、GPU、工厂。但证据告诉我们:AI 是人类历史上“最容易使用的技术”。
ChatGPT 几乎一夜之间就有十亿用户 ,使用方式极其简单:对它说话就行。你不会用 ChatGPT?就问 ChatGPT “怎么用你” ,它能自动学习你的语言、方言,并给出答案。以前的工具不会教你如何使用自己,但 AI 会。你不需要会 Python/C++,只需要会“人类语言”。
趋势二,未来每个国家都会拥有优秀的 AI。即便不是最新的,也会是“过去版本的 AI”,但: “十年前的 AI,在十年后仍然是惊人的。” 每个国家都会因此提升知识、技能与智能水平。
趋势三,AI 的能耗会大幅下降,让更多国家享受红利。
主持人:但能源不也是发展中国家的最大瓶颈吗?
黄仁勋:是的,能源是瓶颈。但正如摩尔定律让计算功耗不断下降,加速计算(accelerated computing)也让 AI 的能耗下降得极快。
过去十年,我们把计算性能提升了 100,000 倍。同样任务所需的能源减少了 100,000 倍。如果汽车十年内做到“能耗减少 10 万倍”,它几乎不需要能源。未来 10 年,AI 做同样的任务所需能量会降到极低。这意味着:AI 将无处不在,每个国家都能使用,不需要巨大的能源成本。
所以,贫穷国家也能跟上。
马斯克买走了第一块 DGX-1
主持人:目前能源仍然是最大瓶颈吧?比如 Google 正在建核电站为他们的 AI 工厂供电?
黄仁勋:我之前没听说过这件事。但未来六、七年会看到很多小型核反应堆。规模大概是几百兆瓦的级别。这些小型核反应堆会建在各家公司本地,用来自发电。
主持人:哇,就像农场自己发电那样?这样做似乎最合理吧?既能减轻电网压力,又能按需建设,还能把剩余电力回馈电网?
黄仁勋:没错,这就是它的意义。
主持人:你刚才讲了一个很重要的点:摩尔定律与价格之间的关系。比如现在的笔记本电脑,像 MacBook Air,那么薄、电池那么强、性能那么好,价格相对又便宜——这就是摩尔定律,对吧?
黄仁勋:然后还有英伟达定律。我之前说的那种计算方式,就是我们发明的新计算方法,相当于“喝了能量饮料版的摩尔定律”,摩尔定律遇上乔·罗根那种强化版。这就是我们。
主持人:你带去给马斯克的那块芯片,它的意义是什么?为什么这么强?
黄仁勋:要从 2012 年说起。当时 Geoff Hinton 的实验室——我刚才提到的那几位:Ilya Sutskever、Alex Krizhevsky——他们在计算机视觉领域做出了突破,开发了一个叫 AlexNet 的软件,用来识别图像。
AlexNet 的图像识别效果,比过去 30 年所有人类设计的计算机视觉算法都要好,是一个质的飞跃。计算机视觉是智能的基础,如果机器不能感知,就很难谈智能。他们用的硬件是什么?就是两块英伟达的 GPU。
主持人:为什么 GPU 能做到?
黄仁勋:因为英伟达从成立开始,就在研究一种新的计算方式。传统 CPU 是顺序运行:一步一步来。而 GPU 是并行运行:把问题拆成很多块,交给成千上万个处理器同时做。
显卡之所以能玩你的赛车模拟器、生成图形,是因为它其实就是一台图像生成超级计算机。我们把这种“加速计算”植入了显卡里。年轻人买它来打游戏——但其实他们买的是全球最大规模的消费者超级计算平台。你之前玩 Quake,用双卡 SLI,对吧?
主持人:对,我以前自己装电脑,用过你的显卡,搞过双卡 SLI。我以前是 Quake 发烧友。
黄仁勋:那太酷了。你那两块 GTX 580,其实就是深度学习走红世界的第一台“革命性计算机”。
黄仁勋:就是那台双卡 SLI。那是现代 AI 的大爆炸时刻。我们发明了 GPU 和 CUDA,他们正好发现了它,而我们又正好注意到了他们做的事情。这就像《星际迷航》的第一次接触——假如瓦肯人没有在那一刻看到曲速引擎,他们就不会来到地球。一切都会截然不同。
主持人提问:后来发生了什么?
黄仁勋:我们意识到深度学习不仅能解决视觉问题,它本质上是一个通用函数逼近器:给它输入和输出,它能自己学会内部的函数。今天可以是牛顿方程,明天可以是麦克斯韦方程、电磁学、热力学甚至量子物理。
换句话说:只要世界存在输入和输出,AI 就能学会它。但要让它真正强大,需要两个前提:一是模型需要能扩大规模(scale);二是它必须能在无监督的情况下学习——我们不会永远有足够的标注数据。 无监督学习后来出现了,AI 于是可以靠自己学习。
到 2016 年,我造出了第一台 DGX-1 超级计算机,用 8 个 GPU(不是 SLI 两个)连在一起,一个要 30 万美元,而研发第一台花了英伟达几十亿美元。我在大会上发布它,但没有一个人想买——直到马斯克出现。
主持人:马斯克怎么说?
黄仁勋:我们在台上做火边聊天,他说:“我有家公司可以用到这个。”我特别兴奋:“太好了,我第一个客户!”结果他说:“这是家非营利机构。”
我当时整个人都僵住了——我花了几十亿做这东西,他买不起啊!但我还是把我们内部在用的一台打包,亲自开车送去旧金山。
2016 年,我走进他们一个比你这房间还小的地方——那里的人后来成了 OpenAI。那时他们真的就是“坐在同一个小屋子的一群人”。
主持人:但现在已经不是非营利组织了,对吧?
黄仁勋:对,现在已经不是了。但不管怎样,那真是一个伟大的时刻。
存亡之际,世嘉 500 万美元拯救了英伟达
主持人:现在 DGX-1 体积真的小太多了。那天 SpaceX 的时候我们也看过。
黄仁勋:对,你看差别。工业设计完全一样。而且他是拿在手里的。最惊人的是——当年的 DGX-1 是 1 PetaFLOPS。很大的 FLOPS 数。DGX Spark 也是 1 PetaFLOPS。但——这是 9 年之后。同样的计算力、却小了这么多。
主持人:而且不是 30 万美元了?
黄仁勋:现在只要 4000 美元。而且只有一本小书的大小。技术就是这样进步的。我想把第一台给他,就是因为 2016 年我也把第一台给了他。
主持人:太迷人了。如果要拍电影,这就是最完美的故事。假如它真的变成一种数字生命形态,那它的起源竟然来自——想做更好的电子游戏电脑图形,这不是太讽刺太有戏剧性了吗?
黄仁勋:完全是。你这么想真的很疯狂,但也完美贴合逻辑。计算机图形其实是超级计算里最困难的问题之一,要生成“现实”。同时它又是最赚钱的问题之一,因为电脑游戏太受欢迎。
NVIDIA 在 1993 年创立时,我们想做一种新的计算方式。问题是:杀手应用是什么?我们公司想做一种新型的计算架构,一种能解决传统计算机解决不了的问题的计算机。但——1993 年存在的应用,都是传统计算机能解决的。如果传统计算机解决不了,那应用也不会存在。
所以,我们公司其实从使命陈述上来说,是一个“不可能成功的公司”。但 1993 年的我根本不知道,只觉得这是个好主意。如果我们要创造一个能解决没法解决的问题的机器——那你得先“创造那个问题”。
这就是我们做的事。当时没有《Quake》,John Carmack 还没发布《Doom》。所以我去了日本。当时街机行业正在崛起,世嘉很火。那时的街机第一次进入 3D:《VR 快打》《Daytona》《VR 警察》……
这些技术来自 Martin Marietta 的飞行模拟器,把 NASA 航天飞机模拟器的核心拆出来塞进街机里。你家那台系统,算力可能比当年的街机强一百万倍。但那些街机用的就是飞行模拟器的技术。世嘉有两位惊人的开发者——铃木裕,以及任天堂的宫本茂。 他们是游戏行业真正的起源者,兼具艺术与技术天赋。铃木裕是 3D 游戏图形的先锋。
我们当时创立公司,却没有任何应用。每天和家人说“去上班”,但实际上就我们三个人,没人会来找你。所以我们下午都没事干。吃完午饭,我们就会去街机厅打《VR 快打》《Daytona》,研究他们怎么做到的。
后来我们决定:去日本说服世嘉,把这些街机 3D 游戏移植到 PC 上,开启 PC 3D 游戏时代。
这就是 NVIDIA 的开始。
作为交换条件,我们帮他们做游戏主机的芯片,他们把游戏移植到 PC。他们也付了我们一大笔钱,这就是 NVIDIA 的真正起步。
但在做了几年之后,我们发现——我们第一代技术不行。是错的。所有架构理念是对的,但实现方式完全反了。别人用三角形,我们用曲面;别人做逆向贴图,我们做正向贴图;别人用 Z-buffer,我们没有。
所有三个关键技术方向——我们全选错。所以我们是第一批进入这行业的公司,却发现自己在一百家竞争者里排在最后,而且答案是错的。
公司陷入困境,我们必须选择:
改?改了仍然是最后一名,仍然会死。
不改?就继续用错误技术。
或者做别的?
我最后主张:虽然不知道正确策略是什么,但我们至少知道错误技术是什么。先停下错误的,给自己一个重新思考的机会。
第二个问题:我们快没钱了。我还和世嘉有合同,要交付游戏主机芯片。如果合同被取消,我们会瞬间死掉。于是我去了日本,见世嘉 CEO 入交昭平(Irié)。他以前是本田美国的 CEO。我 33 岁,还是个瘦瘦的华裔小伙子,脸上还有痘。我对他说:
我有坏消息。
我们承诺的技术行不通。
我建议你们不要继续让我们完成合同,你们应该找别人做主机芯片——否则只会浪费你们的钱。
而且——虽然我请求解约,但我仍然需要你最后那 500 万美元。否则我们会立刻倒闭。
我谦虚、诚实地把背景全部解释给他听。我请求他把最后那 500 万美元改成对 NVIDIA 的投资。他对我说:“即便我投了,你们公司仍然很可能会倒闭。”
完全正确。
1995 年的 500 万美元,对世嘉来说也是大钱。面对这么多竞争者,他们做对了技术,我们做错了——投我们,回报概率几乎是零。我告诉他: “如果你不投资,我们今晚就会倒闭;如果你投了,钱可能也会亏掉。但结果对我来说意义重大。”
他想了几天,回来对我说:“好,我们投。”
他最终决定:他只是喜欢那个年轻的 Jensen。就这样。直到今天都是如此。
主持人:公司上市后你们怎么做?
黄仁勋:我们当时的战略和技术方向完全是错的,所以不得不裁掉公司大部分人,把做游戏主机的团队都缩回去。有人对我说:“Jensen,我们从来没把东西做对过,我们只会按错误的方法做。”
确实公司没人知道如何像 Silicon Graphics 那样,做一个超级计算级的图形图像生成系统。
我说:“不会很难吧?几十家公司都在做。”幸运的是 Silicon Graphics 出了一本教材,我口袋里有 200 美元,就把仅有的三本教材全买了,每本 60 美元。
我拿回来发给三个架构师,说:“读它,然后我们去拯救公司。”
主持人:你们是怎么改变 3D 图形技术的?
黄仁勋:我们从第一性原理开始,学习最好的技术,但用从未有过的方式重新实现。Silicon Graphics 的几何引擎是跑在通用处理器上的软件逻辑。而我们把所有通用性都去掉,只保留 3D 图形最本质的功能,把它全部硬编码进芯片里。
那让一个小小的芯片性能暴增,能跑出百万美元图形工作站同等级的画面。我们把一个百万级设备塞进了 PC 显卡里,这就是重大突破。同时,我们只专注一个应用场景:电子游戏,而不是 CAD、飞行模拟这些一大堆应用。把问题缩到最小,然后为玩家超级优化它。
我们还建立了完整的游戏开发者生态,把游戏适配到我们的芯片上,从技术公司变成一个游戏平台公司。GeForce 早期本质上就是让 PC 变成一台游戏主机。
主持人:你怎么回顾那个时代电子游戏行业的兴起?
黄仁勋:1993 年时实际上根本没有“游戏产业”这种说法。但 John Carmack 做出 Doom、Quake 后,一切瞬间爆发。
顺便说个趣事,“Doom”这个名字来自《金钱本色》里的一个台词:汤姆·克鲁斯打开球杆盒时说:“厄运(Doom)”。Carmack 觉得他们做的就是给行业带来“毁灭级冲击”,就用了这个名字。之后 Tim Sweeney 和 Epic Games 加入,3D 游戏时代彻底起飞。
主持人:继续你的故事吧。你们后来怎么撑下来的?
黄仁勋:在 GeForce 之前,我们靠 RIVA 128 救活了公司。但当时我们银行里只剩几百万美元,每个月都在烧钱。设计芯片要反复打样——设计 → tape-out(送晶圆厂)→ 拿回硅片 → 用软件测试 → 发现 bug → 再 tape-out。我们没有钱也没有时间再来几次这样的循环。
后来我听说有家公司做出一台“模拟器”(emulator),能让我们直接把芯片的设计文件放进去,让机器“假装”成我们的芯片。这样就能在出硅片之前把所有软件测试完。
这太革命了。我们只有一百万美元现金,我决定拿其中一半去买那台机器。结果我打电话过去,对方说:“机器有,但我们公司已经倒闭了。” 他们有一台库存机,我就把它买下来了。他们之后真的倒闭了。我们把设计放进去测试,把 bug 都修完了。
主持人:然后你们怎么让 TSMC(台积电)支持你们?
黄仁勋:我打电话给台积电,说我们要直接量产,不做试产。台积电说从没听过有人第一次 tape-out 就敢直接上量产。
但如果不这么做,我们必然死。而这样做,也许有一线生机。当时台积电很小,几亿美元规模。创办人张忠谋先生决定支持我们。我告诉他我们“有很多客户”(事实上只一个),还有大额采购订单。如果失败,晶圆会报废,我们也完了。但他承担了风险。我们 tape-out、量产,结果完美成功。我们从零到十亿美元收入,成为当时增长最快的科技公司。
主持人:那时候你怎么承受压力?能睡好吗?
黄仁勋:那时我常常躺在床上觉得整个世界都在高速旋转,非常焦虑,完全失控。我人生只有少数几次这样的感觉,那段时间是最严重的。
主持人:这些经历给了你什么?
黄仁勋:我学会了如何制定战略、如何创造市场(我们创造了现代 3D 游戏市场,后来用同样方法创造了现代 AI 市场)。我学会了如何在危机中保持冷静、系统化思考,又如何把公司里所有浪费都清除,只做最本质的事。
我们长期靠“燃尽式”生存。直到今天——我每天早上醒来仍然觉得:我们可能 30 天内会破产。
主持人:但你们现在是全球最大的科技公司之一啊。
黄仁勋:但那种脆弱感、不确定感、危机感从来没离开过。
主持人:你觉得正是这种“饥饿感”让你们成功吗?
黄仁勋:是的。我更多的驱动力来自“不想失败”。我不会停下来,不会自满,总是处在边缘状态。
参考链接:







评论