
Replit 引入了Replit AI Integration,该功能允许用户直接在 IDE 中选择第三方模型,并自动生成运行推理所需的代码。该更新删除了通常需要连接到外部 AI 服务的许多手动设置。开发人员无需配置 API 密钥、处理身份验证或编写样板请求代码,而是可以依靠 Replit 的环境在后台管理这些步骤。
该版本的核心是一个用于与外部 AI 提供商交互的统一界面。当开发人员选择一个模型,如OpenAI、Gemini、Claude或开放权重替代方案时,Replit 提供对该模型的访问,并将预构建的功能插入到项目中。该函数包括所需的参数、请求结构和错误处理逻辑。其目的是为开发人员提供可预测的集成模式,而不管他们选择哪个提供者。Replit 还在内部存储和管理凭据,因此可以在不暴露敏感信息的情况下共享或部署项目。
该公告强调,Replit 打算支持一套广泛且不断发展的模型。因为提供者经常更新他们的系统,所以集成层包括版本跟踪,允许应用程序在模型变体之间移动,而只需更改最少的代码。开发人员还可以在同一个项目中试验多个模型,并在它们之间切换以比较性能或成本。
工作流程不仅限于本地开发。Replit 的内置部署工具自动将集成设置转移到生产环境,从而避免了由于配置错误或 API 差异而导致部署后应用程序行为不同的常见问题。
一些开发人员指出,自动化设置可以帮助减少可能没有专职后端工程师的小型团队的操作开销。其他人指出,更高级的应用程序仍然需要手动调优,特别是在速率限制、模型延迟和成本管理方面。
软件开发人员Narahari Daggupati评论道:
这很好,但如果我们能在某个地方看到所有可用的 300 多个 API,那么为该项目选择正确的 API 就更好了。
同时,Vibe 编码员Fred Marks分享道:
太棒了!如果我们通过 Replit AI Integrations 使用 AI API,我们是否按相同的 API 费率计费,或者 API 是否被加价?
在社区讨论中,开发人员将新的集成系统与新兴的 AI 原生开发平台进行了比较。一些人引用了Vercel的v0,它侧重于使用托管模型生成 UI 和应用程序代码,而 Replit 的方法侧重于在全栈环境中管理模型连接。
随着系统的成熟,Replit 计划推出更多的功能。预计未来的更新将扩展模型支持,改进 CLI 工具,并改进协调身份验证和请求处理的内部 API 层。该公司表示,长期目标是使人工智能提供商之间的切换成为应用程序开发的无缝部分,支持在同一环境中进行实验和生产规模用例。
原文链接:







评论