
HashiCorp 宣布了可以为 Terraform、Vault 和 Vault Radar 提供实验性模型上下文协议(MCP)服务器的可用性。这些产品旨在扩展组织如何将 AI 集成到基础设施配置、安全管理和风险分析工作流程中。MCP 是一个开放标准,允许大语言模型(LLM)与可信的自动化系统连接,同时保持一个安全、受控且可审计的环境。正如HashiCorp所解释的那样,这些服务器旨在提供“在可信自动化系统和新兴 AI 生态系统之间提供一个关键的新接口层”。它们目前处于实验阶段,仅建议用于开发和评估目的,不建议用于生产环境。
Terraform MCP 服务器为 LLM 提供了结构化访问,以“查询Terraform注册表以获取提供商、模块和策略信息并请求建议”。这允许 AI 助手基于准确、经过验证的配置模式提出建议,确保建议的更改与当前最佳实践保持一致。在实际使用中,给 AI 系统的提示可以转化为 Terraform 命令,用于配置资源、调整基础设施配置或执行计划和应用操作。该服务器既可以作为开源项目使用,也可以通过 AWS Marketplace 使用,并与Amazon Bedrock AgentCore集成,以支持采用基于代理的架构的团队。
Vault MCP 服务器“使操作人员能够使用自然语言执行Vault中的基本查询和操作”,而无需与 Vault API 直接交互。它支持创建和删除挂载点、列出可用挂载点、读取存储的密钥、将密钥写入键值存储,并列出指定路径下的所有密钥。通过使 AI 辅助工作流程能够执行这些功能,团队可以将安全的密钥管理集成到自动化流程中,同时防止原始凭证直接暴露给 LLM。
Vault Radar MCP 服务器通过与 HashiCorp Vault Radar 集成来“增强安全操作”,以促进对复杂风险数据集的自然语言查询。例如,安全分析师可能会问,“哪些泄露的机密是严重的,并且存在于保险库中?”并在不进行手动数据关联的情况下获得可操作的见解。这种能力旨在帮助安全团队快速识别高优先级的风险,并加速补救工作流程。
安全原则是所有 MCP 服务器的基础。限定作用域的 API 强制执行最小权限访问,确保 AI 系统只执行批准的操作。原始机密永远不会直接暴露,每个操作都被记录下来以供审计。HashiCorp提醒说,这些服务器生成的输出可能会因模型、查询和连接的 MCP 服务器而异,因此应该始终检查是否符合组织安全、成本和政策要求。
Terraform、Vault 和 Vault Radar MCP 服务器目前都是作为开源项目提供的。实施指南、配置示例和完整的源代码可以从 HashiCorp 的GitHub存储库中访问,允许团队在非生产环境中探索和评估这些工具。
原文链接:
https://www.infoq.com/news/2025/08/hashicorp-mcp-servers-terraform-/
评论