
Thinking Machines 公司发布了Tinker,这是一个用于开放权重语言模型微调的 API。这项服务旨在帮助开发者减少基础设施开销,并提供托管的调度、GPU 分配和检查点处理等功能。通过抽象化集群管理,Tinker 使开发者可以通过简单的 Python 调用进行微调。
Tinker 支持多种模型架构,从小型模型到大型混合专家系统,如Qwen-235B-A22B。开发者可以通过更改 Python 代码中的一个字符串来微调模型。该 API 提供了像 forward_backward 和 sample 这样的原语,可以作为灵活的构建块用于后训练方法。该平台集成了LoRA,可以提高并行运行微调时 GPU 内存的利用率,对于研究小组和资源有限的团队来说,这很实用。
该公司还发布了Tinker Cookbook,这是一个使用该 API 实现常见微调技术的开源存储库。其中包括强化学习方法和偏好优化工作流。来自普林斯顿、斯坦福、伯克利和 Redwood Research 的早期用户已经将 Tinker 应用于定理证明、化学推理及多智能体强化学习等任务。
Tinker 进入的这个领域之前就已经有其他的微调解决方案,如Hugging Face的Trainer API、OpenAI的微调端点和MosaicML的Composer。这些框架提供了更高层次的抽象或专注于特定的训练流程,而 Tinker 则侧重于暴露可以组合成新方法的低级原语,赋予开发者更多控制权,但不需要他们管理基础设施。
来自社区的最初反馈强调了灵活性和简单性之间的平衡。AI 专业人士Ignacio de Gregorio评论道:
这太棒了。RLaaS 正是企业所缺失的解决方案,它在实现目标的同时,还外包了最不利于企业发展的环节(分布式训练)。
Thinking Machines公司创始人Mira Murati指出:
Tinker 为研究人员带来了前沿工具,提供了清晰的抽象用于编写实验和训练流程,同时处理了分布式训练的复杂性。它支持创新研究、模型定制,并提供了可靠的基线。
目前,Tinker 尚处于封闭测试阶段。早期访问免费,后续将采用按使用量计费的模式。开发者和研究团队可直接向 Thinking Machines 申请访问权限。
声明:本文为 InfoQ 翻译,未经许可禁止转载。
原文链接:https://www.infoq.com/news/2025/10/thinking-machines-tinker/
评论