Anthropic刚刚宣布Claude Sonnet 4支持100万token上下文窗口

大模型向量数据库云存储

刚刚,官方公告,Claude Sonnet 4 的上下文窗口扩大到了 100 万 tokens,是之前的 5 倍。

picture.image

这意味着什么?简单说,现在它可以一次读懂整个代码库(7.5 万行代码)或几十篇论文。这听起来很技术,但实际应用场景更有意思。

痛点:记忆力不够用

之前的 AI 就像一个只有短期记忆的顾问,你得反复告诉它背景信息。想让它分析大项目?需要拆成无数个小块,然后祈祷它不要遗忘前面说过的内容。

现在能干什么

  • 代码分析:把整个项目扔给它,它能看懂架构,找到文件间的依赖关系,给出改进建议
  • 文档处理:批量分析合同、研究报告,找出不同文档间的关联
  • 长对话代理:在几百次工具调用中保持上下文,不会「失忆」

成本考虑

超过 20 万 tokens 后价格翻倍(输入从

3

涨到

3涨到6,输出从

15

涨到

15涨到22.5),不过配合缓存和批处理还能省点钱。

真实反馈

Bolt.new 说这让开发者能在更大项目上保持高精度。iGent AI 说这让 AI 工程师可以进行「多天会话」处理真实代码库。

听起来不错,但关键问题是:大多数任务真的需要这么长的上下文吗?还是这又是一个「参数越大越好」的军备竞赛?

目前只对 Tier 4 用户开放测试,Amazon Bedrock 可用,Google Cloud 即将跟进。

那么,“又”Rag死了吗?

上下文管理:从Agent失效到高效运行的完整指南

关注公众号回复“进群”入群讨论。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论