当你面对大型项目、长文档解析或复杂的多步骤任务时,常规的 AI 对话可能会因为上下文限制而力不从心。这时候,Max 模式就是你需要的利器。
启用 Max 模式后,AI 的记忆容量会大幅提升——上下文窗口最高可达 200k,这意味着它能一次性理解和处理更庞大的信息量。同时,单次任务最多支持 200 轮工具调用,让 AI 能够像经验丰富的开发者一样,持续执行、调试、修复,直到任务完成。此外,文件读取能力也提升到了 750 行,大大减少了分段处理的麻烦。
什么时候该用 Max 模式?
- 大型复杂项目初稿的快速生成
想象你正在启动一个新项目,需要快速搭建基础架构。在 Max 模式下,你可以一次性导入所有依赖、配置文件和数据结构,AI 会帮你生成一个可运行的项目雏形,包括接口调用、数据定义等核心模块。
- 长文档或复杂需求的解析与落地
或者你收到了一份几十页的产品需求文档,需要将其转化为实际代码。Max 模式能够完整理解这份长文档的逻辑,并直接生成对应的实现代码,省去了反复沟通和分段处理的时间。
- 跨模块或跨文件代码的理解与重构
当你需要对现有项目进行大规模重构时,比如升级 SDK、统一命名规范或改造跨模块 API,Max 模式能够理解各个模块之间的依赖关系,在整个重构过程中保持上下文连贯,避免遗漏关键细节。
- 复杂交互或多步骤流程的自动化脚本生成
对于复杂的自动化流程,比如编写 CI/CD 脚本或跨服务调用编排,Max 模式会在执行过程中不断测试、捕获错误并自动修复,直到整个流程顺利跑通。
- 实时交互式开发的上下文保持
在长时间的交互式开发中,Max 模式还能持续记住你之前的所有决策和修改,让调试和迭代变得更加流畅自然。
可用的模型选择
Max 模式目前支持四款模型,单个对话回合中支持上下文窗口有所不同(按 Token 计),你可以根据具体需求选择合适的模型。
模型名称
|
Max 模式下的上下文窗口
| |
Doubao-Seed-Code
|
200k
| |
Kimi-K2-0905
|
200k
| |
GLM-4.7
|
200K
| |
Deepseek-V3.1-Terminus
|
128k
| |
DeepSeek-V3.2
|
128k
|
谁可以使用?
订阅了 TRAE 企业版和企业专属版的用户,且席位内仍有对话次数余量或企业限额仍有余量。若席位内对话次数已用完,且企业未开通按量计费或企业限额无余量,则需要提醒企业管理员开通按量计费并充值余额。
关于费用,如果你的席位内还有剩余对话次数,每次使用 Max 模式会消耗 2 个对话次数额度。如果席位次数已用完但企业开通了按量付费,则会按实际消耗的 Token 数量计费,具体单价可参考官方定价。
如何开启?
在 AI 对话输入框的右下角,点击当前显示的模型名称,然后在弹出的菜单中打开 Max Mode 开关即可。
