本文主要介绍 Openclaw 如何从 Codingplan 修改为按量计费 ,重点说明 Codingplan 与按量计费模式的核心参数区别,以及 OpenClaw 中相关的配置项。
方舟 Coding Plan 是为开发者量身定制的订阅服务,与方舟在线推理Chat API 存在明显区别:
- Base URL 与 Model Name 均不相同
- 计费方式截然不同:Coding Plan采用套餐订阅模式,在线推理则主要为按量计费
配置时请务必注意区分,避免混淆。
适用场景
原本出于性价比,选择了CodingPlan,但是 CodingPlan 用量用超了被限额了,想寻找其他可以继续付费使用模型的方法。
方舟按量计费与 CodingPlan 的区别
| 类型 | 按量计费(在线推理) | CodingPlan | |
|---|---|---|---|
| 计费方式 | 根据模型推理时消耗的 Token 数量进行后付费,消耗账户余额,不调用不计费。 详情参考:按量后付费、模型价格 | 套餐采用按月订阅制,在套餐额度内可使用模型。周期内额度耗尽后需等待下一个周期自动恢复,且不会消耗其他资源包或账户余额。 详情参考:套餐详情 | |
| Base URL | https://ark.cn-beijing.volces.com/api/v3 | https://ark.cn-beijing.volces.com/api/coding/v3 📢 注意,相比按量计费Base URL多一个"coding" | |
| Model Name | 可参考 按量计费支持的 Model Name ,部分支持的 Model Nanme 如下: doubao-seed-2-0-pro-260215 doubao-seed-2-0-lite-260215 doubao-seed-2-0-code-preview-260215 glm-4-7-251222 deepseek-v3-2-251201 | 可参考 CodingPlan 支持的 Model Name ,支持的模型名称如下: doubao-seed-2.0-code doubao-seed-2.0-pro doubao-seed-2.0-lite doubao-seed-code minimax-m2.5 glm-4.7 deepseek-v3.2 kimi-k2.5 ark-code-latest (选择 ark-code-latest 时,可通过 开通管理页面 选择或切换目标模型,切换模型后 3-5 分钟即可生效) | |
| API Key | 获取 API Key | 获取 API Key |
使用按量计费前提
开通模型服务
需访问 开通管理页面 开通模型服务,不开通无法使用。
注意事项
免费额度
方舟为新用户提供免费推理试用额度,通常是50w Token 免费额度。但在使用 Openclaw 的场景下,50w 免费Token 可能很快就消耗完了,在没有开启安心体验的情况下,免费额度消耗完之后就会进行按量扣费,倘若您的账户没有余额,则会导致账户欠费。
安心体验
安心体验模式是火山方舟平台为您提供的体验模式,可以保障您免费体验模型推理服务,又不产生费用。在安心体验模式下,您调用推理 API 时仅消耗平台赠送的 50w token 免费额度, 接近免费额度后服务将暂停 ,避免产生额外费用。
若开启安心体验使用OpenClaw,50w免费额度一般扛不住多久,免费额度用完后通常龙虾会报错 "⚠️ API rate limit reached. Please try again later."
在 OpenClaw 上配置按量计费模型
-
通过终端进行配置
- 在终端执行以下命令打开 OpenClaw 配置文件。
vim ~/.openclaw/openclaw.json
- 添加「按量计费模型」信息
首先看下需要在原始的配置文件上新增哪些内容,假设你之前配置 CodingPlan 后配置文件如下
那么修改后就应该是这样的 ↓
配置文件参考
🦞注意:如果已经配置过 OpenClaw,请勿直接覆盖原有配置,建议在原有配置文件基础上,新增上述信息
{
"models": {
"providers": {
"volcengine-plan": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/coding/v3",
"apiKey": "<ARK_API_KEY>",
"api": "openai-completions",
"models": [
{
"id": "ark-code-latest",
"name": "ark-code-latest",
"contextWindow": 256000,
"maxTokens": 32000,
"input": [
"text",
"image"
]
},
{
"id": "doubao-seed-2.0-code",
"name": "doubao-seed-2.0-code",
"contextWindow": 256000,
"maxTokens": 32000,
"input": [
"text",
"image"
]
}
]
},
"ark": {
"baseUrl": "https://ark.cn-beijing.volces.com/api/v3",
"apiKey": "<ARK_API_KEY>",
"api": "openai-completions",
"models": [
{
"id": "doubao-seed-2-0-pro-260215",
"name": "doubao-seed-2-0-pro-260215",
"contextWindow": 256000,
"maxTokens": 32000,
"input": [
"text",
"image"
]
}
]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "volcengine-plan/ark-code-latest"
},
"models": {
"volcengine-plan/ark-code-latest": {},
"volcengine-plan/doubao-seed-2.0-code": {},
"ark/doubao-seed-2-0-pro-260215": {}
}
}
},
"gateway": {
"mode": "local"
}
}
-
检查 modes.json 文件
如果你是在原 provider 对象的基础上进行修改,那最好是备份后删除 modes.json 文件(重启网关服务后会重新读取 openclaw.json 生成新的 models.json,省得去修改了),因为在默认模式下,修改 openclaw.json 不会覆盖 models.json,而调用模型时 models.json 的优先级又更高,这样就会导致有时候修改不生效。
| 配置文件名称 | openclaw.json | models.json |
|---|---|---|
| 配置文件路径 | ~/.openclaw/openclaw.json | ~/.openclaw/agents/main/agent/models.json |
| 主要作用 | “我现在要怎么运行?”是OpenClaw 的主配置文件,全局配置,定义Agent默认行为、通道、模型提供者等 | “我能用哪些模型?”本质上是一个模型清单,定义 Agent 可以使用哪些模型 |
| 作用范畴 | 全局 / 系统级 | 局部 / 模块化(属于特定的 Agent) |
| 优先级 | 低 | 高 |
在终端执行以下命令,重命名备份
mv ~/.openclaw/agents/main/agent/models.json ~/.openclaw/agents/main/agent/models.json.bak
在终端执行以下命令,重启网关服务,重新读取 openclaw.json 生成新的 models.json
openclaw gateway restart
-
新建会话进行验证
- 在飞书上发送 /new 创建新的会话窗口,可以看到默认的“provider/模型”是 volcengine-plan/ark-code-latest
- 在飞书上发送 /model status 查询模型状态,会看到新增的配置已生效。
- 在飞书上发送 /model ark/doubao-seed-2-0-pro-260215 切换到按量计费模型,可以看到模型已修改。
