文档
备案
控制台
登录
立即注册
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
火山杯大赛
学习中心
社区
去发布
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
学习中心
社区
二师兄
文章
专栏
问答
二师兄
Anthropic 功能解读:提示词缓存(Prompt Caching)
大模型
大模型
缓存
提示词缓存(Prompt Caching) 允许你将输入中的大段稳定内容(如长文档、背景信息、系统指令等)缓存起来。这样后续请求只要内容不变,就能直接复用缓存,避免重复处理,显著提升响应速度并节省费用。适用于多轮对话、长文档分析、批量问答等场景。类似 Redis 等缓存策略,当有大量重复利用的上下文时,建议启用提示词缓存。不同的是,提示词缓存更偏好长内容,因为缓存读取只要基础输入的10%的费用。
557
1
0
0