点击蓝字 关注我
大家好,我是老凡
今天和大家聊一个话题
突发上线的 DeepSeek V3.1:128K 上下文、API 不改,这次到底升级了啥?
先给结论——
-
上下文直接拉到 128K,官网/APP/小程序都能用,API 调用方式保持不变 。
-
对长文档分析、代码库理解、长对话一致性,这是立竿见影的增强;但要说“质变”,还得等 R2、V4。
一、确认过的“硬信息”
发布时间 :DeepSeek 在 2025 年 8 月 19 日 公告,线上模型升级至 V3.1 。
核心变化 :上下文窗口扩至 128K tokens (大约十几万汉字量级)。
体验方式:
App、小程序已切换至新版本;网页端不勾选「深度思考」即可用 V3.1。
API 调用 :接口保持兼容,调用方式不需要改。
开源同步 :Hugging Face 已挂出 DeepSeek-V3.1-Base 模型,但目前以 Base 为主,Instruct 版还要等。
社区反馈 :有开发者实测在 Aider 代码基准上跑到 71.6% ,算早期信号,不等于全面表现。
二、128K 上下文,对我们到底有多香?
站在“老凡”做事的角度,我更看落地的三件事:
长文档/多文件处理
一次塞几十上百页 PDF/合同/方案,直接抽取、总结、复盘,不用反复切块。
中型代码库理解
把关键目录 + 核心文件丢进去,让模型帮梳理依赖、列接口清单,再给重构建议。
长对话一致性
做课程问答、客户访谈,不容易断片,节省你一遍遍重复上下文的力气。
三、V3.1 和 R1 的关系
V3.1 = 主力聊天模型 :长上下文、统一入口,默认体验更顺。
R1 = 深度推理模型 :依旧在,用于需要更强逻辑/数学/多步推理的场景。
换句话说: 日常用 V3.1,难题再切 R1 。
四、给创作者和工程同学的三点建议
升级输入法
把碎片化输入换成批量输入:会议纪要、市场调研、竞品资料一次性丢进去,直接产出对标表和行动方案。
先抽骨架,再要建议
让它先列出模块/依赖关系,再逐步提问要重构建议,比单文件 Q&A 更像一个“懂上下文的助理”。
API 先平移,不急迁移
调用方式不变,先把现有调用直接指向 V3.1,评估一下长上下文带来的延时和成本,再做优化。
五、别忽视的“坑位提醒”
开源暂时是 Base :Hugging Face 上的 V3.1-Base 更适合研究,直接商用还得看后续 Instruct。
早期分数只是信号 :Aider 71.6% 可以参考,但不要盲信,记得用你自己的场景测。
默认入口要看清 :社区说默认都切到 V3.1,但官网仍提供 R1;你需要自己区分是否勾选「深度思考」。
六、老凡一句话总结
这不是天翻地覆的大更新,但对真干活的人很友好: 128K 上下文 + 即插即用 ,让不少流程省心省力。
别等 R2、V4,先把 V3.1 用起来,你的效率差距马上能看见。