OpenClaw报错model context window too small

问题现象

安装openclaw后,选择Custom Provider自定义模型厂商,之后对话报错 picture.image ⚠️ Agent failed before reply: Model context window too small (4096 tokens).
Minimum is 16000.
Logs: openclaw logs --follow

问题分析

OpenClaw 在启动时,会通过 API 询问 LM Studio:"你现在跑的是什么模型?"

LM Studio 会老实回答:"是xxxx。"

但问题在于,OpenClaw 的内部 数据库里并没有这个本地模型的详细参数。出于安全和稳定性的考虑,对于所有"不认识"的模型,OpenClaw 会默认将其上下文限制在 4096 token。

这就像你买了一辆法拉利(32k 模型),但系统以为它是老头乐(4k),于是给你的油门加了把锁,死活不让你开快。

我们需要修改配置文件,告诉 OpenClaw:"别猜了,听我的,这辆车能跑 32000!"

解决方法

  1. 打开配置文件 根据你的运行环境找到文件(通常在 ~/.openclaw/openclaw.json 或 ~/.openclaw-dev/openclaw.json)。

picture.image

  1. 修改上下文大小限制
{
  "models": {
    "mode": "merge",  // <--- 关键:告诉系统以我的配置为准进行合并
    "providers": {
      "custom-127-0-0-1-1234": {
        "baseUrl": "http://127.0.0.1:1234/v1",
        "apiKey": "lm-studio",
        "api": "openai-completions",
        "models": [
          {
            "id": "openai/gpt-oss-20b", // 必须与 LM Studio 加载的模型 ID 完全一致
            "name": "Local RTX 3090 Power",
            "reasoning": false,
            "input": [ "text" ],
            "cost": {
              "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0
            },
            // 👇 核心修改在这里 👇
            "contextWindow": 32000, 
            "maxTokens": 32000
          }
        ]
      }
    }
  },
  // ... 其他配置保持不变
}

picture.image

参考CSDN博客:OpenClaw安装后报错model context window too small (4096 tokens). Minimum is 16000

0
0
0
0
评论
未登录
暂无评论