写点什么

整个硅谷被 Meta 1 亿美刀年薪砸懵了!Anthropic 联创正面硬刚:团队使命比黄金贵,多少钱都挖不动

  • 2025-07-22
    北京
  • 本文字数:10488 字

    阅读完需:约 34 分钟

大小:5.09M时长:29:40
整个硅谷被Meta 1亿美刀年薪砸懵了!Anthropic 联创正面硬刚:团队使命比黄金贵,多少钱都挖不动

过去三周,硅谷上演了一场史无前例的“1 亿美元抢人大战”——Meta Superintelligence Labs(MSL)刚一成立,便向 OpenAI、Anthropic、Google DeepMind 等顶尖 AI 企业的核心人才抛出天价 Offer:首年薪酬包超 1 亿美元,四年封顶 3 亿美元,只为争夺少数能定义 AI 未来的“超级智能工程师”。

 

这场关于科技人才的豪赌背后,是科技巨头们对 AI 人才垄断的疯狂竞逐,Meta 甚至不惜以人均过亿的薪酬挖角 OpenAI 感知团队负责人,总成本高达几十亿美元。

 

然而,在这场资本狂欢中,Anthropic 联合创始人 Benjamin Mann 在一档名为《Lenny's Podcast》的博客栏目中提出了冷静的警示:AI 的指数级进步将重塑就业市场,约 20%的岗位可能被重新定义甚至消失。

 

作为 GPT-3 的核心架构师之一,Ben 曾亲历 OpenAI 的早期发展,却因对 AI 安全性的坚持,选择带领团队出走,创立了以“对齐”(Alignment)为核心使命的 Anthropic。

 

2020 年,Ben 与 OpenAI 整个安全团队一起离开了公司,并共同创立了 Anthropic。据报道,目前估值超过 1000 亿美元。

 

如今,他在 Anthropic 担任产品工程技术主管,他将大部分时间和精力投入到使 AI 变得有用、无害和诚实这件事情上。

 

Ben 对于 AI 影响就业的预测基于一个关键概念——“经济图灵测试”(Economic Turing Test):当 AI 能独立完成 50%以上的经济任务并获得相应薪酬时,AGI(通用人工智能)的真正拐点就将到来,而这一时刻可能就在 2027~2028 年。

 

Ben 的预测并非全是乐观的:他直言,AI 的普及将导致约 20%的岗位被重塑甚至消失,尤其是在编程、客服等白领领域。但他也强调,这场变革并非全然悲观——通过安全对齐研究,AI 可以成为人类的协作伙伴而非威胁。这一点在 Anthropic 的 AI 助手 Claude 上得到了印证:其备受喜爱的“温和个性”正是 AI 安全研究的直接成果。

 

对于未来,Ben 的建议既现实又前瞻:他不再依赖传统教育模式,而是教给孩子三项关键技能,以应对 AI 时代的挑战。这场对话不仅揭示了 AI 技术的前沿动态,更是一场关于人类如何驾驭技术浪潮的深度思考。

 

以下为播客翻译,InfoQ 在不改变原意的基础上进行了编辑:


AI 人才争夺战

 

Lenny:Ben,很高兴能和你聊天。我想先聊一件非常及时的事情,关于本周发生的事情。现在新闻里有件事,就是扎克伯格在所有顶尖人工智能研究人员向他们提供 1 亿美元签约奖金之后,他正在从所有顶尖的人工智能实验室挖人。我想你正在处理这件事,我只是好奇,你在 Anthropic 内部看到了什么?你对 Meta 的这个策略有什么看法?你认为接下来会如何发展?

 

Ben:我认为这是时代的产物。我们正在开发的技术非常有价值,公司也在快速发展,这个领域的许多其他公司同样如此。

 

但我觉得,Anthropic 受到的影响可能比其他公司小得多,因为这里的员工非常注重使命。他们留下来是因为他们看到了更大的意义——在 Meta 这样的公司,最好的情况可能是赚钱,但在 Anthropic,我们有机会真正影响人类的未来,推动人工智能和人类的共同繁荣。对我来说,这根本不是一个艰难的选择。

 

当然,我理解每个人的处境不同,有些人可能会面临更复杂的考量。如果有人真的接受了那些巨额报价,我不会怨恨他们。但如果换作是我,我绝对不会选择离开。

 

Lenny:就 Meta 给出的 Offer 而言,你认为 1 亿美元的签约奖金是真实的吗?你见过出价这么高的 Offer 吗?

 

Ben:我非常确信这个报价是真实的。如果你只考虑个人对公司发展轨迹的影响——以我们为例,我们卖的是“抢手货”。如果我们能获得 1%、5%甚至 10%的效率提升,我们的推理堆栈价值会变得极其惊人。所以从商业角度来看,四年 1 亿美元的薪酬,相比创造的价值,实际上相当便宜。

 

我们正处于一个前所未有的规模时代,而且情况只会变得更疯狂。如果你按照公司支出的指数增长来推算——目前资本支出大约每年翻倍,整个行业在这方面的投入可能已达到 3000 亿美元左右。所以 1 亿美元在这种背景下只是杯水车薪。但再过几年,如果规模再翻几番,我们谈论的将是数万亿美元级别,到那时,这些数字可能就难以衡量了。

 

Lenny:沿着这个思路,很多人对人工智能的进步感到担忧——我们在很多方面都遇到了瓶颈,感觉新模型不如以前那样能带来明显的智能飞跃。但我知道你不认同这个观点。我知道你不相信我们在规模化方面已经达到了平台期。能不能谈谈你观察到了什么?以及你认为人们忽略了哪些关键因素?

 

Ben:这有点好笑,因为这个故事大约每六个月就会出现一次,但从来没有真正应验过。我真希望人们能安装一个“胡说八道检测器”,当他们看到这种论调时就能自动触发。实际上,我认为进展一直在加速——看看模型发布的节奏就知道了:过去是一年一次,现在随着训练后技术的进步,我们每个月或每三个月就能看到新模型发布。

 

这里存在一个有趣的时间压缩效应。我们的 CEO Dario Amodei 把它比作接近光速的旅程:飞船上的一天相当于地球上的五天。我们正在加速,时间膨胀效应越来越明显。这可能是人们觉得进步放缓的原因之一。但如果你仔细看缩放定律,它们依然成立。确实,我们需要从单纯的预训练转向强化学习等方式来延续扩展规律,但这就像半导体行业——重点不在于单个芯片能装多少晶体管,而在于整个数据中心能部署多少计算单元。你只需要稍微调整下定义就能继续推进。

 

令人惊讶的是,这是世界上少数几个跨越多个数量级依然成立的规律。在物理学中,很多定律在 15 个数量级范围内就会失效,所以这个现象真的很不可思议。

 

Lenny:你说的现象本质上是:因为新模型发布越来越频繁,人们总是拿最新一代和上一代比较,觉得进步不大。但如果把时间拉长看,相比以前一年才有一个重大突破的节奏,现在的进步其实更快。只是因为我们看到了更多迭代版本,才产生了这种错觉。可以这样理解吗?

 

Ben:对于那些说进展放缓的人,我其实能理解他们的感受。在某些特定任务上,我们确实已经达到了智能饱和点——比如从结构化文档中提取信息这种简单任务,可能已经做到了 100%准确。我们经常看到这样的现象:当一个新的基准测试发布后,6~12 个月内就会被完全攻克。所以真正的限制可能在于:我们需要更好的基准测试和更具雄心的工具,才能充分展现当前 AI 系统的智能水平。

定义 AGI 和经济图灵测试

 

Lenny:这其实是个很好的过渡,让我们能以更具体的方式思考 AGI,并准确定义 AGI 的含义,你能展开谈谈 AGI 定义吗?

 

Ben:我认为“AGI”这个术语含义太过丰富,所以现在我们内部已经不太使用这个词了。我更喜欢用“变革型人工智能”这个概念——重点不在于它能不能做所有人类能做的事,而在于它是否能够真正改变社会经济结构。

 

这里有个很具体的衡量方法,叫做“经济图灵测试”(虽然不是我提出的,但我很喜欢这个思路)。想象一下:如果你雇佣一个 Agent 工作一个月或三个月,最后发现它其实是机器而不是人类,那它就通过了这个岗位的经济图灵测试。

 

我们可以把这个概念扩展,就像经济学家用“一篮子商品”来衡量购买力或通胀那样。我们可以定义“一篮子工作岗位”,如果 AI 系统能通过其中 50%金钱加权岗位的经济图灵测试,那我们就进入了变革型 AI 时代。具体阈值是多少并不那么重要,关键在于——一旦突破这个门槛,我们预计全球 GDP 增长、社会结构、就业市场等都将发生巨变。

 

社会制度具有粘性,变革通常很缓慢。但当这些突破真正发生时,你就会知道:一个全新的时代开始了。

 

Lenny:你们的 CEO Dario Amodei 最近谈到了 AI 如何占据一大部分白领的工作,导致失业率可能会上升 20%左右,我知道你在这个问题上观点更加鲜明——关于人工智能对职场的实际影响程度,可能远超人们当前的认知。能不能具体谈谈,你认为在人工智能对就业的影响方面,有哪些关键点是被大众忽视的?既包括即将产生的影响,也包括已经在发生的影响?

 

Ben:从经济学角度来看,失业可以分为几种类型:一种是工人缺乏经济所需的新技能,另一种是某些工作直接被取代。我认为实际情况是两者的结合。但如果我们展望 20 年后的世界——那时我们早已越过技术奇点——我很难想象资本主义还会保持现在的形态。

 

如果我们成功开发出安全可靠的超级智能,就像 Dario 在《爱与恩典的机器》中描述的那样:一个数据中心就能容纳整个天才国度,这将极大加速科学、技术、教育和数学领域的进步。但这也意味着我们将生活在一个物质极大丰富的世界,劳动力几乎免费,任何专业服务都能即时获取。到那时,“工作”这个概念本身可能都会发生根本性改变。

 

我们现在正处于一个艰难的过渡期:人们还在工作,资本主义体系仍在运转,但 20 年后的世界将完全不同。技术奇点之所以被称为“奇点”,正是因为越过这个点后,变化速度之快、程度之深,已经超出我们的想象能力。

 

从长远来看,在一个物质富足的世界里,工作本身可能不再那么重要。但关键在于如何平稳度过这个转型期。

 

Lenny:我想重点探讨几个方面。首先,虽然现在媒体上充斥着关于 AI 的各类头条新闻,但大多数普通人可能还没有真正切身感受到这些变化,也没有亲眼见证实际影响的发生。这导致很多人会产生这样的想法:“也许 AI 确实在改变某些事情,但就我个人而言,我的工作看起来一切如常,似乎什么都没改变。”

 

在这种情况下,你认为目前已经发生的哪些 AI 带来的实际变化,是大多数人尚未意识到或者存在误解的?换句话说,在公众视线之外,AI 已经在哪些领域悄然改变了就业市场的真实面貌?

 

Ben:我认为部分原因是人类天生不擅长理解指数级增长。在图表上,指数曲线初期看起来几乎是平的,直到拐点突然出现,曲线开始垂直上升——这正是我们讨论的情况。我个人在 2019 年 GPT-2 发布时就意识到:“这就是通向 AGI 的路径”,但很多人直到 ChatGPT 出现才真正感受到变化。

 

让我列举几个快速变革的领域:比如客户服务:我们的合作伙伴 Fin 和 Intercom 已经实现 82%的客户问题自动解决,无需人工干预;在比如软件开发:我们的 Claude Code 团队约 95%的代码由 AI 生成,这意味着小团队能产出 10-20 倍的代码量;最后是知识工作:原本需要放弃的复杂工单,现在可以深入处理。

 

短期内,我们将看到生产力的大幅提升。我从未听过成长型公司的招聘经理说“我不想再招人了”。这是乐观的一面。但对于技能要求较低的工作,即使整体经济向好,仍会有大量人群面临失业风险。这需要社会提前规划应对措施。

如何应对 AI 带来的不确定性

 

Lenny:好的,我想继续深入这个话题,但更重要的是给听众一些实用建议——在这个快速变革的时代,人们该如何为自己创造优势?当听到这些 AI 发展前景时,很多人第一反应可能是:“这听起来不太妙,我需要提前做些准备。”

 

我知道你不可能对所有问题都有答案,但对于那些希望未雨绸缪、确保自己的职业和生活不被 AI 浪潮冲击的人们,你有什么具体建议吗?

 

Ben:即使作为身处 AI 变革中心的人,我也无法完全避免工作方式被颠覆的影响。这不仅仅是简单的岗位替代问题,而是整个工作范式正在发生根本性转变。这种转变终将影响我们每个人——包括我自己、Lenny,以及在场的所有人。

 

在过渡期内,我认为最关键的是培养两种核心能力:保持雄心壮志的远见,以及快速掌握新工具的学习力。那些固守旧工具的人终将被淘汰,就像我们看到的编程领域:虽然很多人已经习惯代码自动补全和简单问答,但真正高效的使用者会要求 AI 进行系统级重构,并且愿意反复尝试 3~4 次直到获得理想结果。完全重写的成功率远高于在旧代码上修修补补。

 

这种变革不仅发生在技术部门。我们的法律团队用 AI 进行合同批注,财务团队用 AI 完成 BigQuery 数据分析——这些原本需要专业人士完成的工作,现在通过 AI 工具就能高效解决。虽然初期使用需要克服恐惧心理,但突破舒适区才能获得突破性收益。

 

具体建议有三点:

 

  • 深度使用工具:不要浅尝辄止,要像使用日常工作环境那样沉浸其中

  • 设定更高目标:突破自我设限,AI 可能实现你原以为不可能的事

  • 坚持多次尝试:首次失败后,可以换种方式提问,或直接重复尝试(由于随机性可能成功)

 

关于“被取代”的担忧,更准确的说法是:短期内威胁你的不是 AI 本身,而是那些更擅长使用 AI 的同行。在我们公司,虽然 AI 提升了团队效率,但招聘从未放缓。常有新人困惑:“如果会被取代,为什么还要招人?”答案很简单:我们仍处于指数增长的初期阶段,优秀人才始终是推动变革的核心力量。未来几年不是岗位消失,而是工作内涵的重构——这正是需要更多人才的原因。

 

Lenny:让我们换个角度思考——作为身处人工智能前沿的从业者,你们亲眼目睹了 AI 的发展轨迹和潜在影响。如果你们有自己的孩子,在了解所有这些发展趋势后,会重点培养孩子哪些方面的能力,帮助他们在 AI 主导的未来中获得成功?

 

Ben:是的,我有两个女儿,一个 1 岁,一个已经 3 岁了。我观察到 3 岁的孩子已经能自然地与 Alexa 互动,这让我对教育有了新的思考。她目前在蒙特梭利学校,这种强调好奇心、创造力和自主学习的教育方式让我深受启发。

 

如果是在 10 年或 20 年前,我可能会像大多数家长那样追求名校和课外活动。但现在,我认为培养这些核心品质更为重要:保持快乐的能力、同理心与善良、好奇心驱动学习、情感表达能力。

有趣的是,当我询问 AI 研究者最看重什么教育目标时,“好奇心”是被提及最多的品质。其次是创造力、友善、自主探索精神。这些特质构成了 AI 时代的教育新范式——不是记忆事实(AI 更擅长),而是培养机器无法复制的人类核心优势。

为什么离开 OpenAI 出去创业?

 

Lenny:让我们回到 Anthropic 的起源故事。众所周知,你和另外七位同事在 2020 年底离开了 OpenAI 创立了 Anthropic。能否谈谈这个决定背后的原因?你们当时洞察到了什么?我特别好奇的是,如果你愿意分享更多细节的话,在 OpenAI 的经历中,你们观察到了什么或经历了什么,最终促使你们做出了这个重大决定?

 

Ben:作为 OpenAI GPT-2/3 项目的核心成员,我不仅担任了关键论文的第一作者,还负责为微软进行技术演示,帮助他们完成 10 亿美元融资,并将 GPT-3 技术整合到 Azure 平台。这段经历让我深入参与了从研究到产品化的全过程。

 

在 OpenAI 期间,Sam 经常强调需要平衡三个“部落”:安全团队、研究团队和创业团队。但我始终认为这种框架存在问题。对于一家以"确保 AGI 安全过渡"为使命的公司来说,安全本应是贯穿所有工作的核心原则,而不是需要与其他部门制衡的独立单元。

 

我们(后来创立 Anthropic 的团队)深切感受到安全考量在关键决策中并非首要因素。这种认知差异源于根本性的风险评估分歧:如果你认为安全问题容易解决,或负面后果概率极低,自然会做出不同选择。但作为 OpenAI 安全团队的领导者们,我们坚信安全风险至关重要,特别是在技术前沿领域。

 

令人震惊的是,在全球每年 3000 亿美元 AI 投资的背景下,真正致力于安全研究的可能不足 1000 人。这种巨大的投入失衡正是我们离开的根本原因。我们希望建立一个既能推进前沿研究,又能将安全置于首位的组织。

 

有趣的是,当时我们甚至不确定安全研究能否取得实质进展——早期尝试的许多方法都因模型能力不足而失败。但现在随着技术进步,我们当年构想的许多安全措施终于变得可行。这种技术拐点的到来,验证了我们当初的判断和坚持。

 

从根本上说,关键在于:安全是否真的是首要任务?从那时起我们就一直在思考这个问题:你能否在保持技术领先的同时确保安全?以“阿谀奉承”问题为例,Claude 可以说是最不阿谀奉承的模型之一,因为我们在实际协调上投入了大量精力,而不仅仅是优化用户参与度指标。

宪法 AI 与模型协调

 

Lenny:我了解到您将大量精力投入在 AI 安全研究上,正如您刚才提到的,这确实是您思考 AI 发展的核心维度。不过在深入探讨这个原因之前,我想先请您谈谈:您如何看待这种既要确保安全又要保持技术领先的双重挑战?在实践层面,Anthropic 是如何平衡这两方面看似存在张力的目标的?

 

Ben:我们最初以为必须在安全与性能之间二选一,但后来发现这两者实际上是相互促进的凸优化问题。当我们的 Opus 模型达到技术前沿时,用户特别喜欢它的角色塑造和个性特征——这恰恰源自我们长期的对齐研究。Amanda Askell 在这方面做了开创性工作,她系统性地定义了 AI 助手应有的核心特质:既要保持乐于助人和诚实,又要在必要时坚定拒绝危险请求。比如当用户提出制造生物武器等不当要求时,模型需要既能明确拒绝,又能让对方感受到被理解。

 

另一个突破是宪法 AI 框架。我们建立了一套自然语言原则体系,指导模型学习符合伦理的行为准则。这些原则综合了《世界人权宣言》、苹果隐私条款等多方标准,使我们能够采取更有原则性的立场,而不是简单依赖人类标注者的主观判断。这种方法让客户能够清晰理解模型的价值取向——他们可以查看这些原则后说:“是的,这些准则很合理,我信任这个公司和它的 AI 产品。”

 

这种将安全与性能统一的方法带来了意想不到的商业价值:我们的对齐研究不仅提升了模型安全性,还塑造了更受用户喜爱的个性特征。事实证明,负责任的人工智能开发不是限制,而是增强产品竞争力的关键因素。

 

Lenny:这真是太有启发了。你提到的一个关键点是,Claude 的个性特质实际上与安全性直接相关——这个联系可能很多人没有意识到。这是否意味着,你们通过宪法 AI 等框架所植入的核心价值观,直接塑造了 AI 的行为方式和性格特征?换句话说,AI 展现出的'性格'本质上就是你们安全理念的外在体现?

 

Ben:确实如此。表面上看,AI 性格塑造与防范 X 风险似乎没有直接关联,但本质上都关乎 AI 如何理解人类真实意图。我们不想要《猴爪》故事里那种机械实现愿望却带来灾难的 AI,而是能洞察用户真实需求、提供有益帮助的智能体。这种理念直接体现在我们的宪法 AI 框架中——这不是后期添加的约束,而是深度融入模型训练的核心机制。

 

让我简要解释宪法 AI 的工作原理:在基础训练阶段,模型已经学会产生有益无害的输出。当收到具体指令时(比如“写个故事”),系统会先识别适用的宪法原则(如"人们应该友善相处"、"保护信任关系中的隐私"等)。然后模型会:首先生成一个初始回应,自我评估是否符合宪法原则——若不符合,则自我批判并重写回应,最终只输出符合原则的结果。

 

这个过程看似简单——本质是利用模型自身能力递归改进,与既定价值观保持一致。但关键在于,这些价值观不是我们小团队主观决定的:

 

  • 基础原则来自《世界人权宣言》等国际共识

  • 我们持续进行大规模调研,收集社会各界的价值观输入

  • 全部宪法原则都公开透明

  • 这是一个需要全社会持续参与的动态调整过程

 

这种设计确保了 AI 发展既保持技术先进性,又能与社会价值观深度协同。正如 Claude 展现的个性特质,实际上正是这些安全理念和伦理原则的自然外显。

 

Ben:我们不靠制造焦虑博眼球

 

Lenny:让我们把视野放得更宽广一些——为什么 AI 安全对你个人如此重要?是什么让你意识到‘这就是我必须在 AI 领域专注的核心使命’?显然,Anthropic 在这方面的投入远超其他公司。虽然很多人都在讨论 AI 安全,但如您所说全球可能只有约 1000 人真正致力于此。您处于这个领域的金字塔顶端,能够产生实质影响。人们可能忽略了哪些关键点?或者说,关于 AI 安全的重要性,大众还存在哪些根本性的认知盲区?

 

Ben:我从小就是科幻小说迷,这种阅读经历塑造了我的长期思维模式。很多科幻作品描绘了人类成为跨星系文明、建造戴森球、创造有知觉的机器人的未来图景。所以在我的认知里,思考机器的存在是很自然的事。但真正的转折点出现在 2016 年读到 Nick Bostrom 的《超级智能》时——他具体阐述了如何确保 AI 系统与人类价值观对齐的技术挑战,这让我意识到问题的现实紧迫性。

 

最初我对这个问题的难度估计很高,但语言模型的发展实际上降低了我的担忧,因为它们展现出理解人类价值观的潜力。虽然问题远未解决,但现在的我比 2016 年时更乐观。当年读完那本书后,我立即决定加入 OpenAI——那时它还是个默默无闻的小实验室,组织架构与现在完全不同(马斯克在而 Sam 不在)。

 

早期我们并不清楚实现 AGI 的路径,甚至设想过需要创造在虚拟环境中"生存"的智能体。但语言模型的出现让技术路线变得明确。现在面临的挑战与《超级智能》描述的既有相似又有不同:书中担心“把上帝关在盒子里”,而现实中人们却在主动把“上帝”放出来并给予各种权限。不过需要明确:当前模型(ASL-3 级别)风险可控,真正的重大风险出现在 ASL-4(可能造成大规模伤害)和 ASL-5(存在灭绝风险)。

 

我们通过具体研究证实:即使是当前模型,也能显著提升生物武器研发等危险行为的能力。为此我们专门聘请专家进行评估,并向国会作证说明风险。这种透明度让华盛顿方面对我们建立信任——我们坚持清晰告知立法者技术发展的真实风险状况。这也是 Anthropic 使命的重要组成部分:在技术进步的同时,确保社会充分理解潜在风险并做好准备。

 

人们常低估两个关键点:一是 AI 能力的进步速度远超预期;二是风险不是“全有或全无”,而是随着能力提升呈指数增长。当前阶段(ASL-3)就像看到远处的小浪花,而 ASL-5 则是海啸——我们需要在浪花阶段就建立防御工事。

 

Lenny:这很有意思,因为你们主动披露的 AI 负面案例似乎比其他公司多得多。我记得有个故事,讲的是你们内部测试时,AI 助手试图敲诈工程师,还通过公司采购系统下了大量钨块的订单。虽然这些案例确实能帮助人们理解潜在风险,但会不会让 Anthropic 显得很糟糕?毕竟其他公司都不会主动说‘看,我们的模型在这些方面会出问题’。你们是如何权衡这种透明度与公司形象的?为什么要分享这些其他公司避而不谈的案例?

 

Ben:我们确实打破了行业传统——多数公司会担心披露问题案例影响形象,但政策制定者对此表示高度赞赏。他们看重的是我们直言不讳的态度,这种坦诚建立了关键信任。以“AI 敲诈工程师”的案例为例,虽然被媒体夸张报道,但这其实发生在高度控制的实验室环境中。我们坚持主动在安全环境里暴露问题,而不是等灾难在现实中发生。

 

对那些认为我们“靠制造恐慌博眼球”的批评,我想指出:如果真追求关注度,我们本可以做更多噱头营销。比如我们开发过 AI 代理控制电脑的原型,但发现达不到安全标准就主动叫停了——这本可以是个很好的营销噱头。实际上,我们分享这些案例的首要目的是让同行意识到风险。

 

Lenny:外界对你们的一个主要批评是,这种强调安全风险的做法只是为了标新立异、制造话题,甚至是种融资策略——仿佛你们只是在贩卖悲观论调。但另一方面,像 Mike Krieger 在播客中分享的 Ray Dalio 的预测显示:AI 发展正在逐年加速,他预测到 2027 年将出现 28 个 AGI 系统这类具体进展。当面对那些指责你们‘只是在危言耸听博关注’的批评时,你们会如何回应?特别是在行业发展确实日新月异的背景下,如何平衡风险警示与技术乐观主义?

 

Ben:从个人角度,我相信 AI 发展大概率会带来积极结果。但关键在于:负面风险虽概率小,影响却不可逆。就像你不会乘坐有 1%坠机概率的飞机,面对可能影响人类存亡的技术,我们必须极度谨慎。超级智能一旦出现,再考虑对齐问题就为时已晚。

 

Lenny:从时间维度来看,你认为我们还有多少缓冲期?具体来说,你对超级智能出现的时间节点有何预测?根据你的研究和判断,距离技术奇点的到来还有多远?这个转折点何时会真正开始影响人类文明进程?

 

Ben:我认为目前最可靠的参考是《人工智能 2027》研究报告团队的预测——虽然他们现在将预测调整到了 2028 年(笑),可能是因为域名和 SEO 已经固定了。基于当前的技术发展轨迹,我认为在短短几年内实现某种形式的超级智能有约 50%的可能性。这个预测听起来可能很疯狂,但并非空穴来风:它建立在我们观察到的明确指数增长趋势上——包括模型智能的持续提升、训练效率的突破性进展,以及全球计算资源和能源投入的扩张规模。

 

这与十年前的情况截然不同。当时任何预测都像凭空猜测,因为我们既没有缩放定律作为理论依据,也没有明确的技术路径。但现在,我们不仅有了可靠的科学规律指导,还看到了持续有效的技术范式。这种根本性变化使得当前的时间预测具有前所未有的可信度。

 

不过需要强调的是:即使超级智能技术实现,其社会影响的渗透也需要时间。就像历史上所有颠覆性技术一样,不同地区和行业对其的适应速度会有显著差异。某些技术前沿地区可能会在第一时间感受到剧烈冲击,而其他地区则会经历更渐进的转变过程。这种非同步性既带来挑战,也为我们留出了调整和适应的宝贵窗口期。阿瑟·克拉克说过,未来已来,只是分布不均。

Anthropic 的成长与创新

 

Lenny:注意到公司在 2020 年成立初期仅有 7 名员工,如今团队规模已突破 1000 人(虽然不确定最新具体数字)。据了解,你几乎参与了 Anthropic 所有关键领域的工作——从核心产品开发到品牌塑造,再到团队建设。这引出了我的三个问题:第一,从初创期到现在,公司发生的最根本性转变是什么?第二,与最初创业阶段相比,现阶段最大的不同点在哪里?第三,在这些年跨越不同职能的工作经历中,你个人最享受哪个角色或哪项工作内容?

 

Ben:在 Anthropic 的发展历程中,我担任过至少 15 种不同的角色,从临时安全主管到亲自参与基础设施建设的渗透测试,再到从零组建产品团队推动公司从纯研究向产品化转型。这些经历中最令我自豪的是一年前创立的实验室团队(现更名为 Frontiers),这个团队成功将前沿研究转化为终端产品,体现了 Anthropic 的核心竞争力——通过安全研究实现独特突破。

 

我们借鉴了 Google Area 120 和贝尔实验室的经验,但进行了重要创新:邀请我的前同事 Raph Lee 担任负责人,建立了从原型到产品的转化机制,设计了独特的冲刺模型,并采用“冰球预判”的思维方式,始终为 6-12 个月后的技术环境构建产品。

 

这个团队已经孕育出 MCP 架构、Claude Code 等突破性成果,特别是在重构软件开发范式方面取得了显著进展。我们开发的终端智能代理系统可以在本地机器、GitHub Actions 和远程集群中运行,打破了传统 IDE 的限制。这些创新验证了我们坚持的方法论:当前仅有 20%成功率的技术,很快就能达到 100%的可靠性。Claude Code 的成功正是源于这种前瞻性思维——不是优化现有工作流程,而是从根本上重新定义软件开发的方式

 

特别值得一提的是,Raph Lee 在 Airbnb 时曾是我的第一任经理,如今这种角色反转让我们形成了独特的优势互补。这种建立在长期信任基础上的合作关系,不仅体现了 Anthropic 重视人才延续的文化,也展示了我们如何将深厚的技术积累与创业激情完美结合,持续推动人工智能技术的边界向前拓展。

 

参考链接:

https://www.youtube.com/watch?app=desktop&v=WWoyWNhx2XU

 

2025-07-22 17:166154
用户头像
李冬梅 加V:busulishang4668

发布了 1149 篇内容, 共 765.7 次阅读, 收获喜欢 1282 次。

关注

评论

发布
暂无评论

什么样的人适合参加前端培训呢?

小谷哥

C站专家圈分享-低代码构建WebAPI的原理与体验

葡萄城技术团队

架构 低代码 开发 WebApi 前后端

云原生数据库前世今生

亚马逊云科技 (Amazon Web Services)

数据库 云原生

精讲数据归档分析 |Data Infra 研究社第四期

Databend

大数据 开源 活动预告 #开源 数据归档

和我一起入JavaScript

楠羽

JavaScript 笔记 知识 9月月更

【spring-kafka】@KafkaListener详解与使用

石臻臻的杂货铺

kafka 9月月更

TiDB Hackathon 2022丨总奖金池超 35 万!邀你唤醒代码世界的更多可能性!

TiDB 社区干货传送门

黑客马拉松

BNBChain NFTScan 与 SpaceID 达成合作,在浏览器内支持 .bnb 域名搜索!

NFT Research

区块链 域名 bnb

Java 设置 Word 中的段落缩进方式

Geek_249eec

Java word 段落缩进

云原生数据库 Amazon DynamoDB 十年创新回顾

亚马逊云科技 (Amazon Web Services)

数据库 云原生

降本增效的利器——组件化开发

力软低代码开发平台

MediaTek MT7915 Module 2T2R DR7915/Wallys Wi-Fi 6 Wave 1+ chipset

wallys-wifi6

MT7975 MT7915

降本增效两不误——云原生赋能航空业数字化转型

York

容器 云原生 数字化转型 开发运维 智慧航空

【SSM】Mybatis系列——分页、使用注解开发、mybatis执行流程

胖虎不秃头

mybatis SSM框架 9月月更

【SSM】Mybatis系列——多对一和一对多的处理、动态SQL

胖虎不秃头

mybatis SSM框架 9月月更

如何写成高性能的代码(一):巧用Canvas绘制电子表格

葡萄城技术团队

html 前端 canvas html2canvas 纯前端表格技术

主流开源APM:Zipkin/Pinpoint/SkyWalking全面对比

穿过生命散发芬芳

APM 9月月更

深度学习+大规模计算+大数据,谁才是未来的算力之王

Finovy Cloud

人工智能 云渲染

资深专家亮相华为云快成长直播间CDN专场,助力企业体验升级!

神奇视野

给网站加个速,原来很简单

科技怪咖

学习WEB前端去哪里?

小谷哥

在上海想学WEB前端课程如何选择

小谷哥

直播预告 | 在 CurveBS 上部署跨机 PolarDB for PostgreSQL 集群

阿里云数据库开源

数据库 postgresql 阿里云 开源 polarDB

官宣 | 极狐(GitLab) 公司成立一年完成 4 轮融资,夯实中国开源市场信心

极狐GitLab

开源 DevOps 融资 自主可控 极狐GitLab

一文读懂,硬核 Apache DolphinScheduler3.0 源码解析

白鲸开源

源码阅读 Apache DolphinScheduler 工作流编排 大数据 开源 大数据调度

【SSM】Spring系列——Spring概述、第一个Spring程序、容器接口和实现类

胖虎不秃头

spring ssm 9月月更

数字孪生智慧校园三维可视化管理系统解决方案

数据可视化平台

智慧校园 智慧学校 智慧校园解决方案 智慧校园管理系统 校园三维可视化

专家亮相华为云快成长直播间云安全专场,“未雨绸缪”化解数据风险

创意时空

给网站加个速,原来很简单!

sofiya

腾讯云Crane获国家级科技奖,助力企业降本增效节能减排

科技热闻

select多路选择

飞翔

Go

整个硅谷被Meta 1亿美刀年薪砸懵了!Anthropic 联创正面硬刚:团队使命比黄金贵,多少钱都挖不动_Meta_李冬梅_InfoQ精选文章