Claude Sonnet 4 上下文翻 5 倍!100 万 token 能处理更大型代码库,AI 代码分析起飞。

大模型向量数据库云存储

Claude Sonnet 4 也加入了“百万 token 俱乐部”,现在跟 Gemini 一样,都支持 100 万上下文了。

上下文容量直接翻了 5 倍,现在能一次性塞进整个代码库或者几十篇论文。

picture.image

价格也变了,超过 200K token 就按新价格算:输入 15/M tok (贵 5 倍),输出 22.5/M tok (贵 1.5 倍)。注意,最强的 Opus 模型还没这待遇。

不过这功能还在 Beta,想用的话有几个门槛和限制:

  • 使用门槛

:得是 Tier 4 的 API 用户,也就是至少买过 400 美元的 API 额度。Pro/Max 订阅用户暂时没份。

  • 可用平台

:现在只能在 Anthropic API 和亚马逊 Bedrock 上用,谷歌 Vertex AI 后面会跟上。

  • API 请求

:得加上 context-1m-2025-08-07 这个 beta 头。

  • 多模态注意

:图或 PDF 太多,可能会超请求大小限制。

  • 速率限制

:有人吐槽,基础用户的每分钟 token 总量才 200 万,这 100 万上下文的请求,一分钟最多只能发两次。

百万上下文有多大?大概 75 万个单词,或者 7.5 万行代码。好处是 AI 能看懂项目结构,跨文件追踪,理解长篇需求,不用来回切上下文。

Anthropic 还提到“有效上下文”的概念,就是模型真正理解的部分,不只是存着。这对于长时间跑的 AI 智能体很重要,能减少跑偏和返工。

对比

  • 市场格局

:GPT-4o 是 128K,Gemini 1.5 Pro 是 1M (可扩展至 2M),Llama 3 传闻有 2M。

  • Anthropic 的卖点

:不光是上下文长,更强调 1M 上下文的可靠性、实用的定价,以及对大代码库和长周期智能体的适用性。

  • 价格对比

:Gemini Pro 和 Flash 便宜多了。Gemini 1.5 Pro 超过 128K token 后是 $7/M,比 Claude 便宜不少。

  • 实测效果

:有人测试发现,Sonnet 3.5 在文本分析上比 Gemini 更快、幻觉更少。但在代码分析上,Gemini 在长上下文里找细节还是更强。

  • 提示词策略

:有人担心,这么长的上下文,提示词策略也得跟着变,不然效果不好。

更长的上下文为 Claude 带来了更广泛、更数据密集型的应用场景。

大规模代码分析 方面,开发者可以将整个代码库加载到模型中,让 Claude 理解项目架构、识别依赖关系并提出系统级建议。

文档综合 方面,模型可以处理法律合同、研究论文等海量文档,并在完整上下文中进行分析。

智能体构建 方面,模型可以在数百次工具调用和多步工作流中保持上下文连贯。

一些客户已经开始使用这一新功能。Bolt.new 的 CEO Eric Simons 表示,Sonnet 3.5 在其代码生成工作流中持续表现优于其他模型,百万上下文使其能够处理更大的项目。

picture.image

想在 Claude Code 里用上 Sonnet 3.5 的 100 万上下文?有人分享了个技巧:用 /model sonnet-3.5-20240620-1m 这个命令就能切换。

picture.image

不过,这招有前提:

  • 只支持 API 认证

:你得用自己的 API key,而不是 Pro/Max 订阅。

picture.image

  • 功能还没完全跟上

:有人发现,虽然上下文窗口大了,但 Claude Code 还是读不了超过 200K token 的文件。 🌟 知音难求,自我修炼亦艰,抓住前沿技术的机遇,与我们一起成为创新的超级个体(把握AIGC时代的个人力量)。

点这里👇关注我,记得标星哦~

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论