LangGrant 推出 LEDGE MCP 服务器,赋能企业数据库启用代理式 AI

作者:Craig Risi
  • 2026-01-15
    北京
  • 本文字数:1419 字

    阅读完需:约 5 分钟

LangGrant推出了 LEDGE MCP 服务器,这是一个新的企业平台,旨在让大语言模型在复杂的数据库环境中进行推理,而无需直接访问或暴露底层数据。该版本旨在消除组织在将代理式 AI 应用于受受控生产数据时面临的一些最大障碍,即安全限制、失控的 token 成本和不可靠的分析结果。

 

该公司表示,LEDGE MCP 服务器允许 LLM 跨OracleSQL ServerPostgresSnowflake,等数据库生成准确、可执行的多步骤分析计划,同时将数据完全保留在企业边界内。通过依赖模式、元数据和关系而不是原始记录,该平台消除了将大型数据集推送到 LLM 的需要,从而大大减少了 token 的使用并防止敏感数据泄漏。根据 LangGrant 的说法,通常需要数周手工编写查询和验证的任务现在可以在几分钟内完成,并具有完全的人工审查和可审计性。

 

LangGrant 首席执行官、首席技术官兼联合创始人Ramesh Parameswaran表示:“LEDGE MCP 服务器消除了 LLM 和企业数据之间的摩擦。”他指出,企业现在可以安全、经济地将代理式 AI 直接应用于现有的数据库生态系统,而不会损害治理或监督。

 

在许多组织中,上下文工程和代理式 AI 正从实验阶段进入生产环境。许多企业已经接受了 AI 助手,但在操作数据库方面却停滞不前。安全策略通常禁止直接访问 LLM,在分析原始数据时 token 和计算成本会激增,开发人员和业务用户都在努力应对企业模式的规模和复杂性。即使使用 AI 辅助编码工具,工程师也经常花费数周时间手动将部分上下文输入模型,以生成可用的查询和管道。

 

LangGrant 将 LEDGE 定位为一个全面解决这些问题的编排和治理层。MCP 服务器管理 LLM 如何与企业数据交互,确保符合访问控制和策略。分析和推理使用数据库上下文而不是数据有效负载来执行,以降低成本并减少幻觉风险。该平台还可以自动创建可由人工团队检查、批准和执行的多阶段分析计划。

 

此外,LEDGE 支持按需克隆和容器化类似生产的数据库,为智能体开发人员提供安全、隔离的环境来构建和测试 AI 工作流。通过跨异构系统自动映射模式和关系,该平台使 LLM 能够跨多个数据库进行推理,而无需读取底层数据本身。

 

有了 LEDGE MCP 服务器,LangGrant 认为企业对 AI 的采用将更少地依赖于更大的模型,而更多地依赖于安全的编排、治理和成本控制。该公司认为,通过保持数据原位,同时为 LLM 提供全面的上下文理解,企业最终可以准确、安全、大规模地将 AI 应用于其最有价值的数据资产。

 

许多公司正在采用 MCP 风格的服务器,在不暴露原始数据的情况下为 AI 智能体提供安全、结构化的环境,但它们的重点领域有所不同。 GitHub的 MCP 服务器以开发人员的工作流程为中心,允许 LLM 在执行访问控制的同时对存储库、问题、拉取请求和 CI 元数据进行推理。同样,微软的Azure DevOps MCP向 AI 智能体公开结构化项目和管道上下文,以支持规划、故障排除和交付自动化,而不是深度分析数据处理。

 

除了开发者平台,MCP 概念也出现在基础设施和运营中。Linkerd等服务网格项目正在探索 MCP 集成,为 AI 智能体提供对服务流量、遥测和策略执行的安全可见性。云提供商还通过他们的 AI 服务(如AWS谷歌云)提供类似 MCP 的上下文层,这些服务允许智能体查询基础设施元数据和操作信号,而无需将敏感数据直接传递给模型。这些方法侧重于操作意识,而不是数据分析。

 

与这些产品相比,LangGrant 的 LEDGE MCP 服务器以专注于企业数据库和分析而脱颖而出。总之,这些平台显示了 MCP 如何成为一种基础模式,每个实现都针对企业堆栈的特定层进行了定制。

 

原文链接:

https://www.infoq.com/news/2026/01/langgrant-ledge-mcp-server/