
艾伦人工智能研究所(Allen Institute for Artificial Intelligence)发布开源语言模型系列 Olmo 3,向研究人员与开发者完整开放模型全生命周期。与之前仅提供最终权重不同,Olmo 3 包含开发各个阶段的检查点、训练数据集和工具,覆盖用于推理、指令遵循和强化学习的预训练和后训练的完整链路。
Ai2 在公告中表示:
语言模型常被视为复杂开发过程的快照,仅分享最终结果等于抹去了后续进行修改与提升所依赖的关键信息,
Olmo 3 通过提供对整个模型生命周期的可见性来解决这一问题,使用户能够检查推理轨迹、修改数据集,并试验后训练技术,如监督微调(SFT)和可验证奖励强化学习(RLVR)。
此次发布的核心是 Olmo 3-Think(32B),一个专注于推理的模型,允许开发者检查中间推理步骤,并且输出能一路溯源到训练样本。对于较小规模的部署,Olmo 3-Base、3-Think 和 3-Instruct 的 7B 变体在编码、数学和多轮指令任务上表现出色,且可在普通硬件上运行。后训练路径支持不同用例:Instruct 专为聊天和工具使用设计,Think 用于多步推理,RL Zero 则聚焦于强化学习研究。
Olmo 3 系列在多个基准测试中表现强劲。在数学和推理测试中,Olmo 3-Think(32B)可与 Qwen 3 和 Gemma 3 等其他开放权重模型媲美,甚至超越它们,而 Olmo 3-Instruct(7B)在指令遵循、函数调用和聊天方面表现优异。Ai2 强调,这些模型在扩展上下文长度的情况下仍能保持较高的质量,可支持需要处理数万 token 的推理应用。
一位评测者评论道:
我希望这个子版块能更多地为 Olmo 欢呼。这是一个真正自由且开放的模型,提供了所有数据,任何拥有算力资源的人都可以从零开始构建它。我们理应为他们加油,让他们知道他们的努力受到了赞赏,并能够继续下去。
Ai2 还强调了训练和工具的透明度。此次发布包括 Dolma 3,一个包含 9.3 万亿 token 的语料库,以及 Dolci,一个用于推理、工具使用和指令遵循任务的后训练数据集套件。OlmoTrace 等工具让用户可以看到输出如何与特定训练数据关联,弥合了模型行为与其来源之间的差距。
另一位 Reddit 用户指出 进展之快:
他们在如此短的时间内取得了巨大进展,基本上已经赶上了开放权重实验室。这些人正在“烹饪”,真正的开源已经超出“尽力而为”的范畴。
此次发布旨在促进实验室和社区的参与。研究人员可以在任意检查点分叉模型,整合领域特定数据,或测试新的强化学习目标。所有模型、数据集和训练产出均采用了宽松的许可,支持研究、教育及应用 AI 项目的开放开发。
Olmo 3 向“开放优先的 AI”迈出了关键一步,其中透明度、可追溯性和社区共建处于核心位置。用户可在 Ai2 Playground 中探索模型,通过 OpenRouter 获取权重,或下载所有检查点和数据集来构建自己的系统。
【声明:本文由 InfoQ 翻译,未经许可禁止转载。】







评论