
OpenAI 正式推出 Codex,这是一款基于云的软件工程 Agent 研究预览版,是为自动化常见的开发任务,包括编写代码、调试、测试及生成 pull 请求。该功能已集成至 ChatGPT 的 Pro、Team 和 Enterprise 版本中,Codex 会在预加载用户代码库的安全沙盒环境中执行每个任务,并自动匹配用户的开发环境配置。
Codex 由专为编程任务优化的 codex-1(OpenAI o3 模型的一版)驱动,通过真实案例的强化学习训练,从而生成符合人类编码习惯的代码。模型会迭代运行代码并执行测试,直至生成正确的解决方案。任务完成后,Codex 将在沙盒内提交变更,同时提供测试输出与终端日志以确保过程透明。
用户可通过 ChatGPT 的 Codex 侧边栏通过文本指令分派任务或查询代码库。该模型支持编辑文件、运行命令和执行测试,通常来说任务的完成时间在一分钟至 30 分钟之间。Codex 兼容 AGENTS.md 文件这种仓库级指导文件,可用于引导 Agent 遵循项目特定规范与测试流程。
开源工具 Codex CLI 作为命令行辅助界面,使用需消耗 API 额度。但 OpenAI 的技术团队成员 Fouad Matin 明确表示,ChatGPT 内的 Codex 功能已包含在 Pro、Team 和 Enterprise 订阅中:
未来两周内,Codex 将向 ChatGPT 的 Pro、Team 和 Enterprise)用户提供充足的免费调用额度。
当前系统尚不支持含实时用户界面的完整应用测试。正如某 Reddit 用户所言:
现代软件开发多数都是网页应用,它是怎么处理分层架构、环境变量和 UI 交互的?能否直接运行应用供用户测试?还是必须推送变更后拉取本地副本测试?后者体验极差。理想情况下 Agent 应该能自主完成测试,但显然现有能力仍不足。
Codex 运行于无网络连接且无法执行 UI 的隔离容器中,虽然能处理测试套件、静态检查与类型验证,但最终确认与集成仍需人工完成。
OpenAI 同期发布了轻量版 Codex mini,该模型响应更快、延迟更低,是 Codex CLI 的默认引擎,并可通过 codex-mini-latest 作为 API 开放使用。其定价为输入 token 每百万 1.5 美元,输出 token 每百万 6 美元,并享有 75% 的 prompt 缓存折扣。
此次发布体现了 OpenAI 的双轨战略:既支持实时 AI 编程辅助,也布局了异步 Agent 工作流。尽管当前 Codex 仅支持 GitHub 对接并通过 ChatGPT 访问,OpenAI 计划未来实现与 Codex CLI、ChatGPT 桌面端、问题追踪及 CI 工具等系统的深度集成。
评论