OpenAI 与 Anthropic 宣布推出新的面向医疗健康领域的 AI 产品,将其模型从通用对话场景扩展到受监管的临床与生命科学环境中。两项发布均强调技术集成、互操作性与治理能力,体现出一种转变:AI 系统不再作为独立的助手存在,而是被设计为能够直接运行在现有医疗基础设施之中。
Anthropic 推出了 Claude for Healthcare,并同步扩展了 Claude for Life Sciences。此次发布的核心是一组不断扩展的连接器,使 Claude 能够在查询时访问权威的外部系统。针对医疗服务提供方和支付方,这些系统包括:用于本地与全国医保覆盖判定的 CMS 医保覆盖判定数据库、用于诊断与手术编码的 ICD-10,以及用于医疗服务提供者身份核验的国家医疗服务提供者标识符(NPI)注册库。
在生命科学领域,Anthropic 新增了对临床试验运营与科研中常用平台的连接能力。这些集成旨在支持试验设计、受试者招募分析、监管材料准备以及早期发现阶段的工作流。Anthropic 还引入了一系列新的代理能力,包括基于 FHIR 的数据交换、事前授权审查模板、临床试验方案起草以及生物信息学工具,将 Claude 定位为一个面向工作流的智能代理,而非仅用于单轮交互的助手。
与此同时,OpenAI 发布了 OpenAI for Healthcare,该方案将 ChatGPT for Healthcare 与一个符合 HIPAA 要求配置的 OpenAI API 组合在一起。从技术角度看,此次发布的重点在于企业级控制与合规机制。组织可以部署基于角色的访问控制,通过 SAML 与 SCIM 实现集中式身份管理,启用审计日志、客户自管加密密钥,并可选择签署业务伙伴协议。OpenAI 强调,在这些配置下,受保护的健康信息仍由客户掌控,不会被用于模型训练。
ChatGPT for Healthcare 支持对经过筛选的医学资料来源及机构内部文档进行检索,适用于临床文档辅助、护理协同、事前授权准备以及行政流程自动化等场景。在 API 层面,医疗软件厂商已经在使用 OpenAI 模型构建环境感知型临床记录、病历摘要以及出院流程管理等应用,将 AI 直接嵌入现有系统,而非作为一个独立界面提供。
两家公司也都引入了针对个人健康数据的可选集成方案。Anthropic 与 OpenAI 将其描述为“可选择加入”的功能,提供细粒度的权限控制,并支持随时撤销访问。然而,这种做法也引发了对监管与验证机制的担忧。一位 Reddit 用户指出:
将个人健康数据交由一家营利性公司,不能只依赖一篇博客文章中的承诺。缺乏独立审计和明确的监管监督时,关于数据不用于训练、数据隔离的声明很难让人完全信任。
总体来看,这些发布反映了医疗 AI 的一个更广泛趋势:从通用模型转向高度集成的平台,优先考虑标准合规性、可追溯性以及对结构化数据的受控访问。与其单纯强调模型能力,OpenAI 与 Anthropic 更倾向于将其医疗产品定位为基础设施组件,使其能够在既有监管框架下,被嵌入临床、行政和科研工作流之中。
原文链接:
https://www.infoq.com/news/2026/01/openai-anthropic-healthcare/





