
OpenAI 在 ChatGPT 中正式推出对模型上下文协议(MCP)的全面支持,为开发者带来了一个期待已久的功能:能够在聊天会话中直接使用自定义连接器进行读取和写入操作。该功能目前处于开发者模式测试阶段,它将 ChatGPT 转变为一个可编程的自动化中心,能够与外部系统或内部 API 进行交互。
到目前为止,ChatGPT 的内置工具主要限于读取或获取数据,例如浏览网页或检索文档。启用开发者模式后,开发者现在可以注册 MCP 服务器,并将任何支持结构化操作的工具公开。得益于此,ChatGPT 可以在对话界面中执行诸如更新 Jira 工单、触发工作流、向数据库写入数据等更为复杂的操作。
OpenAI 表示,这种新模式“功能强大但暗藏风险”,因为它赋予了模型执行真实写入操作的能力。OpenAI 强调,开发者需要仔细测试连接器,警惕提示词注入攻击,并在执行前确认所有写入操作。每次工具调用都包含一个 JSON 负载,方便开发者进行检查,ChatGPT 将提示用户审查并批准任何修改数据的操作。
要添加 MCP 连接器,可以导航到 ChatGPT 的设置菜单,选择“连接器”,再点击“高级”,最后进入“开发者模式”。这些连接器支持服务器发送事件(SSE)和流式 HTTP 协议,并可选支持 OAuth 认证。连接后,相关工具将出现在开发者模式菜单中,用户可以通过结构化提示词清晰地调用它们。
开发者还可以对工具的偏好设置、操作顺序以及安全限制进行精准定义,从而有效减少歧义。这种设计引导开发者培养清晰明确的提示词习惯——例如,开发者可以指定 ChatGPT 使用一个连接器专门负责数据检索,而另一个连接器用于安排日程,而不是一股脑地依赖其内置功能。
在发布之后,开发者在 Reddit 上对集成方式进行了澄清。用户 AlternativeBorder813 提问:
这是仅限于远程使用,还是也可以在本地运行 localhost 服务器?是否有已知的与之兼容的 MCP 列表可供参考?
另一位用户回复:
它只能是远程的,ChatGPT 无法连接到本地服务器。不过,使用 ngrok 等服务创建通道其实非常简单。从理论上讲,只要与其它大语言模型(LLM)兼容的 MCP 都可以与 ChatGPT 协同工作。
新增的支持功能极大地提升了 ChatGPT 对开发者的实用性,增强了与 LangChain 和 LlamaIndex 等框架的兼容性。ChatGPT 不仅可以作为管理代理的用户界面,还能充当自动化平台的角色,而连接器则如同一座桥梁,将语言模型与现实世界的应用程序紧密相连。
OpenAI 表示,该功能目前已在网页端向 Pro、Plus、Business、Enterprise 和 Education 账户开放。开发者可以通过 ChatGPT 设置中的连接器标签页查看文档和示例,并使用与 MCP 兼容的工具进行实验。
【声明:本文由 InfoQ 翻译,未经许可禁止转载。】
评论