问题现象
安装openclaw后,选择Custom Provider自定义模型厂商,之后对话报错
⚠️ Agent failed before reply: Model context window too small (4096 tokens).
Minimum is 16000.
Logs: openclaw logs --follow
问题分析
OpenClaw 在启动时,会通过 API 询问 LM Studio:"你现在跑的是什么模型?"
LM Studio 会老实回答:"是xxxx。"
但问题在于,OpenClaw 的内部 数据库里并没有这个本地模型的详细参数。出于安全和稳定性的考虑,对于所有"不认识"的模型,OpenClaw 会默认将其上下文限制在 4096 token。
这就像你买了一辆法拉利(32k 模型),但系统以为它是老头乐(4k),于是给你的油门加了把锁,死活不让你开快。
我们需要修改配置文件,告诉 OpenClaw:"别猜了,听我的,这辆车能跑 32000!"
解决方法
- 打开配置文件 根据你的运行环境找到文件(通常在 ~/.openclaw/openclaw.json 或 ~/.openclaw-dev/openclaw.json)。
- 修改上下文大小限制
{
"models": {
"mode": "merge", // <--- 关键:告诉系统以我的配置为准进行合并
"providers": {
"custom-127-0-0-1-1234": {
"baseUrl": "http://127.0.0.1:1234/v1",
"apiKey": "lm-studio",
"api": "openai-completions",
"models": [
{
"id": "openai/gpt-oss-20b", // 必须与 LM Studio 加载的模型 ID 完全一致
"name": "Local RTX 3090 Power",
"reasoning": false,
"input": [ "text" ],
"cost": {
"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0
},
// 👇 核心修改在这里 👇
"contextWindow": 32000,
"maxTokens": 32000
}
]
}
}
},
// ... 其他配置保持不变
}
参考CSDN博客:OpenClaw安装后报错model context window too small (4096 tokens). Minimum is 16000
