Claude Sonnet 4 也加入了“百万 token 俱乐部”,现在跟 Gemini 一样,都支持 100 万上下文了。
上下文容量直接翻了 5 倍,现在能一次性塞进整个代码库或者几十篇论文。
价格也变了,超过 200K token 就按新价格算:输入 15/M tok (贵 5 倍),输出 22.5/M tok (贵 1.5 倍)。注意,最强的 Opus 模型还没这待遇。
不过这功能还在 Beta,想用的话有几个门槛和限制:
- 使用门槛
:得是 Tier 4 的 API 用户,也就是至少买过 400 美元的 API 额度。Pro/Max 订阅用户暂时没份。
- 可用平台
:现在只能在 Anthropic API 和亚马逊 Bedrock 上用,谷歌 Vertex AI 后面会跟上。
- API 请求
:得加上 context-1m-2025-08-07
这个 beta 头。
- 多模态注意
:图或 PDF 太多,可能会超请求大小限制。
- 速率限制
:有人吐槽,基础用户的每分钟 token 总量才 200 万,这 100 万上下文的请求,一分钟最多只能发两次。
百万上下文有多大?大概 75 万个单词,或者 7.5 万行代码。好处是 AI 能看懂项目结构,跨文件追踪,理解长篇需求,不用来回切上下文。
Anthropic 还提到“有效上下文”的概念,就是模型真正理解的部分,不只是存着。这对于长时间跑的 AI 智能体很重要,能减少跑偏和返工。
对比
- 市场格局
:GPT-4o 是 128K,Gemini 1.5 Pro 是 1M (可扩展至 2M),Llama 3 传闻有 2M。
- Anthropic 的卖点
:不光是上下文长,更强调 1M 上下文的可靠性、实用的定价,以及对大代码库和长周期智能体的适用性。
- 价格对比
:Gemini Pro 和 Flash 便宜多了。Gemini 1.5 Pro 超过 128K token 后是 $7/M,比 Claude 便宜不少。
- 实测效果
:有人测试发现,Sonnet 3.5 在文本分析上比 Gemini 更快、幻觉更少。但在代码分析上,Gemini 在长上下文里找细节还是更强。
- 提示词策略
:有人担心,这么长的上下文,提示词策略也得跟着变,不然效果不好。
更长的上下文为 Claude 带来了更广泛、更数据密集型的应用场景。
在大规模代码分析 方面,开发者可以将整个代码库加载到模型中,让 Claude 理解项目架构、识别依赖关系并提出系统级建议。
在文档综合 方面,模型可以处理法律合同、研究论文等海量文档,并在完整上下文中进行分析。
在智能体构建 方面,模型可以在数百次工具调用和多步工作流中保持上下文连贯。
一些客户已经开始使用这一新功能。Bolt.new 的 CEO Eric Simons 表示,Sonnet 3.5 在其代码生成工作流中持续表现优于其他模型,百万上下文使其能够处理更大的项目。
想在 Claude Code 里用上 Sonnet 3.5 的 100 万上下文?有人分享了个技巧:用 /model sonnet-3.5-20240620-1m
这个命令就能切换。
不过,这招有前提:
- 只支持 API 认证
:你得用自己的 API key,而不是 Pro/Max 订阅。
- 功能还没完全跟上
:有人发现,虽然上下文窗口大了,但 Claude Code 还是读不了超过 200K token 的文件。 🌟 知音难求,自我修炼亦艰,抓住前沿技术的机遇,与我们一起成为创新的超级个体(把握AIGC时代的个人力量)。
点这里👇关注我,记得标星哦~