
Anthropic 已将 Claude Sonnet 4 的上下文长度提升至最多 100 万个词元,相比之前增加了五倍。目前,该功能处于公开测试阶段,用户可以通过 Anthropic API 和 Amazon Bedrock 使用,预计不久后将支持 Google Cloud 的 Vertex AI。
扩展后的上下文窗口让用户能够在单次请求中提交更大的数据集。对于开发者来说,这意味着他们可以加载整个代码库——数万个文件,包括测试和文档——同时保持跨文件的感知能力。对于研究人员来说,它能够在不丢失引用的情况下,对数十篇长篇文档(如学术论文或法律合同)进行综合分析。
Anthropic 表示,这一变化对于构建需要跨数百次工具调用和多步骤工作流的上下文感知智能体来说特别有价值。在实际应用中,这使得开发者能够在长时间的会话中提供完整的 API 文档、配置文件和系统历史记录,同时保持交互的连贯性。
从技术角度来看,更大的窗口降低了重复检索或重新嵌入内容的需求,使得持续数天的任务变得更加可行。不过它们也增加了计算负载,如果不加以仔细管理,可能会导致答案变得不够聚焦。一些开发者认为,只是扩展上下文是不够的。
一位 Hacker News 用户 aliljet 指出:
能够将整个代码库塞进上下文窗口确实很棒,但如果不去评估 Sonnet 是否能够保持专注,就很难判断这是否真的有价值。
另一位评论者补充道:
一个包含一切的上下文窗口会让保持专注变得更加困难。用户必须通过提出恰当的问题,才能更好地理解和把握代码库的精髓。
另一个担忧来自实际应用情况。在 Reddit 上,一位用户分享了他的观点:
我几乎没看到有人去测试它,因为成本实在太高了。Anthropic 的计算成本可能是整个 AI 行业中最高的。
还有人持有更为务实的态度:
虽然它很贵,但有这个选项仍然是好事。大多数人会继续采用一直以来的管理上下文的策略,但我相信,在某些特定情况(或者对于一些不差钱的人来说),使用更大的上下文是值得的。
目前,100 万个词元的上下文窗口仅对拥有高级访问权限的 Anthropic 客户开放,预计在未来几周内将进行更广泛的推广。尽管此次升级显著提升了 Claude 在单次处理中能够处理的范围,但开发者对于仅靠规模就能解决上下文管理的实际挑战仍存在分歧。
【声明:本文由 InfoQ 翻译,未经许可禁止转载。】
原文链接:
评论