刚刚,官方公告,Claude Sonnet 4 的上下文窗口扩大到了 100 万 tokens,是之前的 5 倍。
这意味着什么?简单说,现在它可以一次读懂整个代码库(7.5 万行代码)或几十篇论文。这听起来很技术,但实际应用场景更有意思。
痛点:记忆力不够用
之前的 AI 就像一个只有短期记忆的顾问,你得反复告诉它背景信息。想让它分析大项目?需要拆成无数个小块,然后祈祷它不要遗忘前面说过的内容。
现在能干什么
- 代码分析:把整个项目扔给它,它能看懂架构,找到文件间的依赖关系,给出改进建议
- 文档处理:批量分析合同、研究报告,找出不同文档间的关联
- 长对话代理:在几百次工具调用中保持上下文,不会「失忆」
成本考虑
超过 20 万 tokens 后价格翻倍(输入从
3
涨到
3涨到6,输出从
15
涨到
15涨到22.5),不过配合缓存和批处理还能省点钱。
真实反馈
Bolt.new 说这让开发者能在更大项目上保持高精度。iGent AI 说这让 AI 工程师可以进行「多天会话」处理真实代码库。
听起来不错,但关键问题是:大多数任务真的需要这么长的上下文吗?还是这又是一个「参数越大越好」的军备竞赛?
目前只对 Tier 4 用户开放测试,Amazon Bedrock 可用,Google Cloud 即将跟进。
那么,“又”Rag死了吗?
关注公众号回复“进群”入群讨论。