
Anthropic 提出了一个新的透明度框架,旨在解决在前沿 AI 模型开发过程中日益增长的问责需求。这一提议的重点针对正在开发强大 AI 模型的大型人工智能公司,这些公司是以计算能力、成本、评估性能和年度研发支出等因素来区分的。目标是建立一套标准,以确保安全,降低风险,并提高公众对这些先进 AI 系统的开发和部署的可见度。
框架的一个核心方面是实施安全开发框架(Secure Development Frameworks,SDFs),这将要求大型 AI 公司评估和减轻与其模型相关的潜在灾难性风险。这些风险包括化学的、生物的及放射性的危害,以及由模型自主性错位造成的伤害。该提案概述了这些框架不仅应解决风险缓解问题,还应确保负责任地处理 AI 开发流程。
该框架的一个关键要求是公开披露。根据提议的法规,AI 公司将被要求通过注册网站公开其SDFs,提供对其安全实践的透明度。这将允许研究人员、政府和公众获取有关部署模型的重要信息,确保安全标准得到满足,并妥善管理任何风险。此外,公司还需要发布系统卡片,提供模型测试程序、评估结果和实施的缓解措施的摘要。每当模型被修订或添加新功能时,这些文件都需要更新。
该框架还建议小型开发人员和初创公司不受这些要求的限制。相反,这些法规将适用于有潜力造成重大伤害的大规模 AI 公司,例如那些拥有大量计算能力或财务资源的公司。豁免旨在避免给小型公司带来不当负担,同时仍将监管工作集中在该领域最大的参与者身上。
此外,提议包括执行合规的具体条款。如果 AI 公司就其遵守框架的情况提供虚假或误导性陈述,将构成违法行为,确保必要时可以应用举报人保护。执法机制将允许司法部长对违规行为追究民事处罚,帮助维护系统的完整性。
社区的反应反映了对最近全球关于 AI 监管讨论的乐观、怀疑和实际关切的担忧。
AI 专家Himanshu Kumar在 X 上发表评论:
促进开源 AI 开发对安全创新不也是至关重要的吗?
与此同时,用户Skeptical Observer也发表了评论:
由谁来执行?这感觉非常以美国为中心。中国的实验室或其他范围之外的呢?举报人保护听起来不错,但没有全球覆盖,这只是权宜之计。希望他们在 AI 安全峰会上澄清这一点!
最终,提议的透明度框架旨在在确保AI安全和促进持续创新之间取得平衡。虽然框架为透明度设定了最低标准,但它故意避免过于规范,允许 AI 行业随着技术的发展而不断适应。通过促进透明度,该框架寻求为 AI 开发人员建立清晰的问责制,帮助政策制定者和公众区分该领域负责任的和不负责任的做法。这可以作为进一步监管的基础,如果需要的话,提供必要的证据和见解,以确定随着人工智能模型的发展是否需要额外的监督。
原文链接:
https://www.infoq.com/news/2025/07/anthropic-transparency-framework/
评论