
LM Studio发布了0.3.17 版本,引入了对模型上下文协议(MCP)的支持——在使语言模型访问外部工具和数据源方面迈出了一步。MCP 最初由 Anthropic 开发,它定义了一个标准接口,用于将大语言模型(LLM)连接到 GitHub、Notion 或 Stripe 等服务,从而实现更强大的上下文推理。
随着这个版本的发布,LM Studio 成为了一个 MCP 主机,能够连接到本地和远程的 MCP 服务器。用户可以通过编辑应用内的 mcp.json 配置文件或使用新提供的“添加到 LM Studio”一键集成按钮(如果可用)来添加服务器。
每个 MCP 服务器都在一个独立的、隔离的进程中运行。这种架构确保了模块化和稳定性,同时保持与本地环境的兼容性。LM Studio 支持依赖于 npx、uvx 或任何系统命令的 MCP,前提是这些工具已安装,并且可以通过系统的 PATH 变量访问。
安全和用户代理是设计的核心。当模型尝试通过 MCP 服务器调用工具时,LM Studio 会显示一个工具调用确认对话框,用户可以在这里检查、批准、修改或拒绝操作。工具可以被加入白名单,以便未来的调用,并且可以通过“工具与集成”菜单进行全局管理设置。
一个示例用例是 Hugging Face MCP 服务器,它允许模型访问 Hugging Face 的 API 来搜索模型或数据集。用户只需在配置中输入他们的 API 令牌,服务器就可以在 LM Studio 环境中访问。这个功能对于希望用第三方 API 的结构化、实时数据增强本地模型的大语言模型开发者来说非常有用。
该项目已经引起了社区的兴趣。在 LinkedIn 上,Xholding Group 的项目管理者 Daniele Lucca评论道:
太棒了!这就是我正在进行的激情项目。我正在使用外部数据源来“教”一个 AI,这些数据涉及我所在行业 20 年来的问题、解决方案、手册(AIDC(自动识别和数据捕获)
尽管如此,还是有一些用户报告了早期的问题。一位 Reddit 用户指出:
我只是希望我能加载模型列表。出于某种原因,我在尝试搜索模型时遇到了错误。其他人也遇到了这个问题吗?
另一位回复道:
我两天前遇到过。昨天就好了。所以我认为这是间歇性的。
LM Studio 鼓励社区通过他们的 GitHub 问题跟踪器提交缺陷报告,因为对 MCP 支持在不断发展。
0.3.17 版本现在可以通过应用内更新或直接在 lmstudio.ai下载获得。
原文链接:
评论