写点什么

LLM 没意思,小扎决策太拉垮,图灵奖大佬 LeCun 离职做 AMI

  • 2025-11-20
    北京
  • 本文字数:3258 字

    阅读完需:约 11 分钟

大小:1.50M时长:08:42
LLM 没意思,小扎决策太拉垮,图灵奖大佬 LeCun 离职做 AMI

刚刚,图灵奖得主、深度学习三巨头之一的 Yann LeCun,亲自在 Threads、领英等多平台宣布,年底从 Meta 离职,并投身创业。


LeCun 的新创业公司,将聚焦 高级机器智能研究项目(Advanced Machine Intelligence,AMI),这其实也是他在 Meta 的 FAIR 里多年推进研究的方向之一。


“这家初创公司的目标,是 AI 的下一场重大革命:构建能理解物理世界、具备持久记忆、推理并能规划复杂动作序列的系统。”


简而言之,AI 不再只是个单纯的“模式识别器”(Pattern Recognizer),而是靠 “世界模型 + 自监督 + 物理理解” 进化,能够理解、推理、规划 并 与现实世界深度交互


图源:领英


值得一提的是,即将变为 LeCun 老东家的 Meta,还将成为其新公司的 合作伙伴——LeCun 在帖子中也是感谢了一众 Meta 的领导,还 Po 出了和小扎的合照,但就是没提亚历山大·王(Alexandr Wang)。


图源:threads.com


众网友这次倒是挺异口同声,纷纷献上祝福和期待。



LeCun 离职原因 & 时间线梳理


其实,LeCun 从 Meta 离职一事,从上周起就传得沸沸扬扬了,今天是他本人亲自出来证实


我们来梳理一下来龙去脉。


11 月 11 日,金融时报放出风声:Meta 首席 AI 科学家 LeCun 向同事透露了自己的离职计划,下一步打算创业。


消息一出,硅谷震惊,众网友炸锅,Meta 的市值也迅速给出反馈:


当天,Meta 的市值在美股盘前下跌约 1.5 %,至收盘跌超 3%,一天内蒸发了 449.72 亿美元(约合人民币 3,200.25 亿元)


至于 LeCun 为什么要从供职 12 余年的 Meta 离职,其实也并非一时冲动,而是 Meta 内部 AI 发展路线长期冲突,和他个人研究理念受挫的结果。


今年 6 月,LeCun 在巴黎 VivaTech 2025 大会上提出一项雄心勃勃的路线图,旨在实现 AMI,核心是通过一款视频预测模型 V-JEPA V2 克服三大核心 AI 挑战:理解物理世界、推理和规划。


但随着 GenAI(生成式人工智能)的爆发,Meta 内部的战略重心和资源,迅速向以 Joelle Pineau 为首的 GenAI 产品化团队倾斜。


在 Meta 发布 Llama 4 之后,小扎决定更专注于更快推出模型和 AI 产品。虽然 Meta 明面上说,将继续支持以 LeCun 为首的研究机构 FAIR,但 FAIR 的分量已然不如从前。


Meta 要求 FAIR 的研究必须更快地服务于 Llama 系列模型等商业化产品,这极大地压缩了 LeCun 团队进行长期、纯粹基础研究的自由和空间。LeCun 认为自己的基础研究方向,在公司内部失去了应有的支持和尊重。


从今年 8 月起,LeCun 要离职的风声就在硅谷内部隐隐流传。当时有多位业内人士透露,LeCun 对 Meta 在 AI 战略上的一些重大决策很不满。


另外有人爆料称,在一次内部会议上,LeCun 向大家强调长期研究的重要性,一个年轻人直接呛道:““我们是在开发超级智能,不是在辩论哲学。”


这个人就是今年 6 月才加入 Meta、但被小扎超级重视的“95 后”亚历山大·王,他的此番言论导致会议气氛变得很尴尬。


更“诛心”的是,LeCun 这位首席 AI 科学家,还得向这位从 MIT 辍学的 28 岁年轻人汇报,大决定全由亚历山大·王说了算。


图源:https://www.aibase.com/news/20989


网友锐评:LeCun 基本在做的都是超前沿研究,完全不赚钱的那种,Meta 如果要赶走这个神主牌也算释放明显讯号了:他们不搞科研了。


亚历山大·王并非抵制世界模型,恰恰相反,他也看好世界模型;但在此方向上,他和 LeCun 的方法论、利益结构和未来愿景几乎完全不同


总而且之,理念得不到尊重、资源被挤压,加上还被毛头小子设限还贴脸质疑,让 LeCun 确认 Meta 的环境已不再适合他实现宏伟的科学愿景。他选择离职创立一家新公司,专注于实践和证明自己所坚信的“世界模型”路线。


  AI 或许不是泡沫,LLM 才是?


LeCun 对 LLM 的反感,不是一天两天了。


在今年 3 月英伟达的 GTC 大会,LeCun 再次表达了态度:LLM 的创新已经从科学突破变成“堆算力、堆数据、堆合成样本”的工程活——属于“优化尾声阶段”的技术。


“我现在对大语言模型(LLM)已经没那么大兴趣了。感觉它们现在已经有点像走到最后一步了,落到了那些搞产业产品的人手里,就有点像是在边边角角上做改进,想办法搞更多数据,更多算力,或者搞点合成数据什么的。”


在他看来,想要达到真正意义上的智能,AI 必须具备四种关键能力,而 LLM 在这四项上全都失败:

  • 理解物理世界

  • 具备持久记忆(而非临时上下文)

  • 真正的推理能力

  • 可以规划行动,而不是靠预测下一串 token


LeCun 始终坚持发展基于 “世界模型”(World Model)和 自监督学习(Self-Supervised Learning)的下一代 AI 技术,力求实现真正具有“常识”的通用人工智能(AGI)。


AMI 就是这样的技术路线,它强调世界模型、自监督学习、抽象表示能力。


LeCun 还反对 AGI 会在短期内即将出现的说法,认为这完全是胡扯。未来十年,AI 或许有可能达到接近人类的智能水平。但前提是,行业必须从 LLM 的规模竞赛中走出来


Hugging Face 的联创 Delangue 与 LeCun 的观点不谋而合。在前几天举行的 Axios 活动上,他大胆发言:我们现在面对的不是“AI 泡沫”,而是“LLM 泡沫”。


图源:领英


Delangue 指出,行业的根本误判在于——把“大模型 + 巨量算力”当成解决所有问题的万能钥匙。无论是创业公司还是资金方,都把注意力放在越来越巨大的模型上,却忽略了一个关键现实:并不是所有应用都需要一个“能回答人生意义”的超级大脑。


在银行客服、企业内部工具、垂直行业等场景中,更小、更快、更便宜、可落地部署的专用模型才真正有价值。


他预测,未来几年将出现一批高度定制化的“小模型生态”,专门解决特定任务,而不是追求一种通吃所有场景的巨无霸模型。“行业正在醒悟:更大不等于更好,更贵也不等于更强。”


LLM 的泡沫或许在明年会迎来破碎,但 Delangue 对未来十分乐观,他认为 AI 才刚刚起步,真正的潜力还未完全释放。


卷积神经网络之父在 Meta 的这些年


LeCun 出生于 1960 年、现年 65 岁,以发明深度学习和卷积神经网络而闻名


早在 1989 年,LeCun 于贝尔实验室提出卷积神经网络(CNN),并用 LeNet 模型解决手写数字识别问题。这项技术成为现代视觉识别系统的基石。


2018 年,他与 Geoffrey Hinton、Yoshua Bengio 因推动深度学习成为计算核心技术而共同获得图灵奖,被誉为“深度学习三巨头”。


2013 年,正值深度学习快速崛起,Meta 正从 PC 互联网向移动时代转型,推荐算法、内容理解等核心业务都迫切依赖 AI。


扎克伯格亲自邀请 LeCun 加入,并允许他以学术研究院的方式创建 FAIR。保持论文开放发表、坚持长期研究、不受短期 KPI 限制,是 LeCun 加入的前提,也成为 FAIR 的文化基底。


在 Meta 的 12 年里,他先后担任 FAIR 创始主任与 Meta 首席 AI 科学家,几乎以一己之力奠定了 Meta 的 AI 基础设施格局。FAIR 迅速成长为业界顶尖的 AI 研究机构之一,与 Google Brain、DeepMind 等研究力量齐名。


LeCun 曾坦言,FAIR 的建立是他“最自豪的非技术成就”。


FAIR 的众多成果中,最具全球影响力的无疑是 2016 年推出的 PyTorch。作为一款以动态图、高灵活性著称的深度学习框架,PyTorch 彻底改变了研究者的工作方式,一举引领学术界,并在工业界快速普及,迅速成为最重要的深度学习框架之一,为大规模模型训练提供了基础设施,也成为 Meta 在全球 AI 生态中最强的影响力来源。


FAIR 也为 Met 的大模型战略提供了关键技术积累,包括自监督学习、表征学习和多模态研究。可以说,没有 FAIR 的这些技术底座,Meta 不可能在短时间内建立起全球领先的开源大模型生态。


对于 LeCun 过往为 Meta 做出的贡献,Meta 发言人表达了高度认同:


“我们感谢 LeCun 过去 12 年对 Meta 人工智能的巨大贡献,并期待通过合作伙伴关系继续受益于他的前沿研究。”


伴随 LeCun 的离开,FAIR 的黄金时代或许已落幕,但 LeCun 的世界模型探索,或许将迎来崭新阶段。


参考链接:

https://www.threads.com/@YannLecun

https://www.linkedin.com/feed/update/urn:li:activity:7397020300451749888/

https://www.ft.com/content/c586eb77-a16e-4363-ab0b-e877898b70de

https://techcrunch.com/2025/11/18/hugging-face-ceo-says-were-in-an-llm-bubble-not-an-ai-bubble/

2025-11-20 15:377

评论

发布
暂无评论

全票通过!易观开源项目DolphinScheduler进入Apache孵化器

易观大数据

超详细:完整的推荐系统架构设计

博文视点Broadview

架构 算法 推荐系统

克隆虚拟机

yuanhang

大专生拿到阿里offer,却担心背调不过,网友:985在你面前黯淡无光

程序员生活志

面试 职场 阿里

架构师训练营第十三周总结

Hanson

如何在企业微信上搭建一款活动报名 App

Ceelog

企业微信 Go 语言

超级TV盒子,超清秒播,解锁全网VIP资源!

程序员生活志

资源

干货来袭!20例JavaWeb项目开发精粹;(内含源码)

Java架构师迁哥

LeetCode题解:225. 用队列实现栈,一个队列, 压入 - O(n), 弹出 - O(1),JavaScript,详细注释

Lee Chen

大前端 LeetCode

oeasy 教您玩转linux 之010208 满屏乱码 bb

o

PageRank 算法

周冬辉

从零开始搭建完整的电影全栈系统(一)——数据库设计及爬虫编写

刘强西

爬虫 Scrapy

anyRTC - 模仿微信音视频通话功能

anyRTC开发者

WebRTC 语音 直播 RTC 安卓

架构师0期Week13作业

Nan Jiang

对PageRank的理解

2流程序员

你应该了解的MySQL锁分类

X先生

MySQL 数据库 sql 数据库优化

大数据

yuanhang

Centos 7 虚拟机

如何在一台电脑上管理多Github账号

Matrix Chan

git GitHub 版本管理工具 开发日志

anyRTC小程序SDK 4.0上线

anyRTC开发者

小程序 WebRTC 语音 直播 RTC

解Bug之路-Nginx 502 Bad Gateway

无毁的湖光

nginx Linux TCP

​程序员离职后收到原公司 2400 元,被告违反竞业协议赔 18 万

程序员生活志

程序员 职场

为什么一个还没毕业的大学生能够把 IO 讲的这么好?

苹果看辽宁体育

Java 后端 io

抗疫代码入国家博物馆, 程序员的巅峰时刻!

程序员生活志

程序员

限量版Netty纯手打笔记,年薪80W架构师耗时1个月整理出

Java架构师迁哥

35岁以上的程序员们,后来都干什么去了?

华为云开发者联盟

程序员 职业规划 架构师

开源流数据公司 StreamNative 正式加入 CNCF,积极推动云原生策略发展

Apache Pulsar

云原生 pulsar Apache Pulsar 消息系统 消息中间件

防止APP窃取用户隐私问题,OPPO安全在行动

OPPO安全

App 安全 隐私保护 数据隐私 sdk

架构师训练营第十三周作业

Hanson

Fettley全球共识共享智能合约资产计划 掀起行业追捧热潮

InfoQ_967a83c6d0d7

Redis单线程为什么能做到高性能和io多路复用它是个什么鬼

Java架构师迁哥

字节小组长无意中得知整个部门的薪资,自己28K,手下却有35K,怎么办?

程序员生活志

字节跳动 职场 薪资

LLM 没意思,小扎决策太拉垮,图灵奖大佬 LeCun 离职做 AMI_Meta_木子_InfoQ精选文章