AI实践哪家强?来 AICon, 解锁技术前沿,探寻产业新机! 了解详情
写点什么

LM Studio 0.3.17 为工具集成 LLM 添加了模型上下文协议(MCP)支持

作者:Robert Krzaczyński

  • 2025-07-08
    北京
  • 本文字数:909 字

    阅读完需:约 3 分钟

大小:455.14K时长:02:35
LM Studio 0.3.17为工具集成LLM添加了模型上下文协议(MCP)支持

LM Studio发布了0.3.17 版本,引入了对模型上下文协议(MCP)的支持——在使语言模型访问外部工具和数据源方面迈出了一步。MCP 最初由 Anthropic 开发,它定义了一个标准接口,用于将大语言模型(LLM)连接到 GitHub、Notion 或 Stripe 等服务,从而实现更强大的上下文推理。

 

随着这个版本的发布,LM Studio 成为了一个 MCP 主机,能够连接到本地和远程的 MCP 服务器。用户可以通过编辑应用内的 mcp.json 配置文件或使用新提供的“添加到 LM Studio”一键集成按钮(如果可用)来添加服务器。

 

每个 MCP 服务器都在一个独立的、隔离的进程中运行。这种架构确保了模块化和稳定性,同时保持与本地环境的兼容性。LM Studio 支持依赖于 npx、uvx 或任何系统命令的 MCP,前提是这些工具已安装,并且可以通过系统的 PATH 变量访问。

 

安全和用户代理是设计的核心。当模型尝试通过 MCP 服务器调用工具时,LM Studio 会显示一个工具调用确认对话框,用户可以在这里检查、批准、修改或拒绝操作。工具可以被加入白名单,以便未来的调用,并且可以通过“工具与集成”菜单进行全局管理设置。

 

一个示例用例是 Hugging Face MCP 服务器,它允许模型访问 Hugging Face 的 API 来搜索模型或数据集。用户只需在配置中输入他们的 API 令牌,服务器就可以在 LM Studio 环境中访问。这个功能对于希望用第三方 API 的结构化、实时数据增强本地模型的大语言模型开发者来说非常有用。

 

该项目已经引起了社区的兴趣。在 LinkedIn 上,Xholding Group 的项目管理者 Daniele Lucca评论道

 

太棒了!这就是我正在进行的激情项目。我正在使用外部数据源来“教”一个 AI,这些数据涉及我所在行业 20 年来的问题、解决方案、手册(AIDC(自动识别和数据捕获)

 

尽管如此,还是有一些用户报告了早期的问题。一位 Reddit 用户指出

 

我只是希望我能加载模型列表。出于某种原因,我在尝试搜索模型时遇到了错误。其他人也遇到了这个问题吗?

 

另一位回复道

 

我两天前遇到过。昨天就好了。所以我认为这是间歇性的。

 

LM Studio 鼓励社区通过他们的 GitHub 问题跟踪器提交缺陷报告,因为对 MCP 支持在不断发展。

 

0.3.17 版本现在可以通过应用内更新或直接在 lmstudio.ai下载获得。

 

原文链接:

https://www.infoq.com/news/2025/07/lm-studio-mcp/

2025-07-08 15:001

评论

发布
暂无评论
LM Studio 0.3.17为工具集成LLM添加了模型上下文协议(MCP)支持_AI&大模型_InfoQ精选文章