
刚刚,图灵奖得主、深度学习三巨头之一的 Yann LeCun,亲自在 Threads、领英等多平台宣布,年底从 Meta 离职,并投身创业。
LeCun 的新创业公司,将聚焦 高级机器智能研究项目(Advanced Machine Intelligence,AMI),这其实也是他在 Meta 的 FAIR 里多年推进研究的方向之一。
“这家初创公司的目标,是 AI 的下一场重大革命:构建能理解物理世界、具备持久记忆、推理并能规划复杂动作序列的系统。”
简而言之,AI 不再只是个单纯的“模式识别器”(Pattern Recognizer),而是靠 “世界模型 + 自监督 + 物理理解” 进化,能够理解、推理、规划 并 与现实世界深度交互。
图源:领英
值得一提的是,即将变为 LeCun 老东家的 Meta,还将成为其新公司的 合作伙伴——LeCun 在帖子中也是感谢了一众 Meta 的领导,还 Po 出了和小扎的合照,但就是没提亚历山大·王(Alexandr Wang)。
图源:threads.com
众网友这次倒是挺异口同声,纷纷献上祝福和期待。
LeCun 离职原因 & 时间线梳理
其实,LeCun 从 Meta 离职一事,从上周起就传得沸沸扬扬了,今天是他本人亲自出来证实。
我们来梳理一下来龙去脉。
11 月 11 日,金融时报放出风声:Meta 首席 AI 科学家 LeCun 向同事透露了自己的离职计划,下一步打算创业。
消息一出,硅谷震惊,众网友炸锅,Meta 的市值也迅速给出反馈:
当天,Meta 的市值在美股盘前下跌约 1.5 %,至收盘跌超 3%,一天内蒸发了 449.72 亿美元(约合人民币 3,200.25 亿元)。
至于 LeCun 为什么要从供职 12 余年的 Meta 离职,其实也并非一时冲动,而是 Meta 内部 AI 发展路线长期冲突,和他个人研究理念受挫的结果。
今年 6 月,LeCun 在巴黎 VivaTech 2025 大会上提出一项雄心勃勃的路线图,旨在实现 AMI,核心是通过一款视频预测模型 V-JEPA V2 克服三大核心 AI 挑战:理解物理世界、推理和规划。
但随着 GenAI(生成式人工智能)的爆发,Meta 内部的战略重心和资源,迅速向以 Joelle Pineau 为首的 GenAI 产品化团队倾斜。
在 Meta 发布 Llama 4 之后,小扎决定更专注于更快推出模型和 AI 产品。虽然 Meta 明面上说,将继续支持以 LeCun 为首的研究机构 FAIR,但 FAIR 的分量已然不如从前。
Meta 要求 FAIR 的研究必须更快地服务于 Llama 系列模型等商业化产品,这极大地压缩了 LeCun 团队进行长期、纯粹基础研究的自由和空间。LeCun 认为自己的基础研究方向,在公司内部失去了应有的支持和尊重。
从今年 8 月起,LeCun 要离职的风声就在硅谷内部隐隐流传。当时有多位业内人士透露,LeCun 对 Meta 在 AI 战略上的一些重大决策很不满。
另外有人爆料称,在一次内部会议上,LeCun 向大家强调长期研究的重要性,一个年轻人直接呛道:““我们是在开发超级智能,不是在辩论哲学。”
这个人就是今年 6 月才加入 Meta、但被小扎超级重视的“95 后”亚历山大·王,他的此番言论导致会议气氛变得很尴尬。
更“诛心”的是,LeCun 这位首席 AI 科学家,还得向这位从 MIT 辍学的 28 岁年轻人汇报,大决定全由亚历山大·王说了算。
图源:https://www.aibase.com/news/20989
网友锐评:LeCun 基本在做的都是超前沿研究,完全不赚钱的那种,Meta 如果要赶走这个神主牌也算释放明显讯号了:他们不搞科研了。
亚历山大·王并非抵制世界模型,恰恰相反,他也看好世界模型;但在此方向上,他和 LeCun 的方法论、利益结构和未来愿景几乎完全不同。
总而且之,理念得不到尊重、资源被挤压,加上还被毛头小子设限还贴脸质疑,让 LeCun 确认 Meta 的环境已不再适合他实现宏伟的科学愿景。他选择离职创立一家新公司,专注于实践和证明自己所坚信的“世界模型”路线。
AI 或许不是泡沫,LLM 才是?
LeCun 对 LLM 的反感,不是一天两天了。
在今年 3 月英伟达的 GTC 大会,LeCun 再次表达了态度:LLM 的创新已经从科学突破变成“堆算力、堆数据、堆合成样本”的工程活——属于“优化尾声阶段”的技术。
“我现在对大语言模型(LLM)已经没那么大兴趣了。感觉它们现在已经有点像走到最后一步了,落到了那些搞产业产品的人手里,就有点像是在边边角角上做改进,想办法搞更多数据,更多算力,或者搞点合成数据什么的。”
在他看来,想要达到真正意义上的智能,AI 必须具备四种关键能力,而 LLM 在这四项上全都失败:
理解物理世界
具备持久记忆(而非临时上下文)
真正的推理能力
可以规划行动,而不是靠预测下一串 token
LeCun 始终坚持发展基于 “世界模型”(World Model)和 自监督学习(Self-Supervised Learning)的下一代 AI 技术,力求实现真正具有“常识”的通用人工智能(AGI)。
AMI 就是这样的技术路线,它强调世界模型、自监督学习、抽象表示能力。
LeCun 还反对 AGI 会在短期内即将出现的说法,认为这完全是胡扯。未来十年,AI 或许有可能达到接近人类的智能水平。但前提是,行业必须从 LLM 的规模竞赛中走出来
Hugging Face 的联创 Delangue 与 LeCun 的观点不谋而合。在前几天举行的 Axios 活动上,他大胆发言:我们现在面对的不是“AI 泡沫”,而是“LLM 泡沫”。
图源:领英
Delangue 指出,行业的根本误判在于——把“大模型 + 巨量算力”当成解决所有问题的万能钥匙。无论是创业公司还是资金方,都把注意力放在越来越巨大的模型上,却忽略了一个关键现实:并不是所有应用都需要一个“能回答人生意义”的超级大脑。
在银行客服、企业内部工具、垂直行业等场景中,更小、更快、更便宜、可落地部署的专用模型才真正有价值。
他预测,未来几年将出现一批高度定制化的“小模型生态”,专门解决特定任务,而不是追求一种通吃所有场景的巨无霸模型。“行业正在醒悟:更大不等于更好,更贵也不等于更强。”
LLM 的泡沫或许在明年会迎来破碎,但 Delangue 对未来十分乐观,他认为 AI 才刚刚起步,真正的潜力还未完全释放。
卷积神经网络之父在 Meta 的这些年
LeCun 出生于 1960 年、现年 65 岁,以发明深度学习和卷积神经网络而闻名。
早在 1989 年,LeCun 于贝尔实验室提出卷积神经网络(CNN),并用 LeNet 模型解决手写数字识别问题。这项技术成为现代视觉识别系统的基石。
2018 年,他与 Geoffrey Hinton、Yoshua Bengio 因推动深度学习成为计算核心技术而共同获得图灵奖,被誉为“深度学习三巨头”。
2013 年,正值深度学习快速崛起,Meta 正从 PC 互联网向移动时代转型,推荐算法、内容理解等核心业务都迫切依赖 AI。
扎克伯格亲自邀请 LeCun 加入,并允许他以学术研究院的方式创建 FAIR。保持论文开放发表、坚持长期研究、不受短期 KPI 限制,是 LeCun 加入的前提,也成为 FAIR 的文化基底。
在 Meta 的 12 年里,他先后担任 FAIR 创始主任与 Meta 首席 AI 科学家,几乎以一己之力奠定了 Meta 的 AI 基础设施格局。FAIR 迅速成长为业界顶尖的 AI 研究机构之一,与 Google Brain、DeepMind 等研究力量齐名。
LeCun 曾坦言,FAIR 的建立是他“最自豪的非技术成就”。
FAIR 的众多成果中,最具全球影响力的无疑是 2016 年推出的 PyTorch。作为一款以动态图、高灵活性著称的深度学习框架,PyTorch 彻底改变了研究者的工作方式,一举引领学术界,并在工业界快速普及,迅速成为最重要的深度学习框架之一,为大规模模型训练提供了基础设施,也成为 Meta 在全球 AI 生态中最强的影响力来源。
FAIR 也为 Met 的大模型战略提供了关键技术积累,包括自监督学习、表征学习和多模态研究。可以说,没有 FAIR 的这些技术底座,Meta 不可能在短时间内建立起全球领先的开源大模型生态。
对于 LeCun 过往为 Meta 做出的贡献,Meta 发言人表达了高度认同:
“我们感谢 LeCun 过去 12 年对 Meta 人工智能的巨大贡献,并期待通过合作伙伴关系继续受益于他的前沿研究。”
伴随 LeCun 的离开,FAIR 的黄金时代或许已落幕,但 LeCun 的世界模型探索,或许将迎来崭新阶段。
参考链接:
https://www.threads.com/@YannLecun
https://www.linkedin.com/feed/update/urn:li:activity:7397020300451749888/
https://www.ft.com/content/c586eb77-a16e-4363-ab0b-e877898b70de
https://techcrunch.com/2025/11/18/hugging-face-ceo-says-were-in-an-llm-bubble-not-an-ai-bubble/








评论