点击上方👆蓝字关注我们!
在与“龙虾”的交互过程中,用户普遍面临一个核心痛点:它似乎“记性不好”。每一次开启新的对话,都意味着需要重新交代背景、重复个人偏好,仿佛在训练一个永远无法毕业的实习生。这种“跨会话记忆断裂”不仅消耗了用户大量的沟通成本,也极大地限制了“龙虾”在复杂、长期任务中的实际应用价值。因此,如何为“龙虾”构建持久、精准且成本可控的长期记忆能力成为关键。
OpenViking 作为面向 AI Agent 的专业外挂记忆体与上下文数据库,通过与火山方舟 Coding Plan 深度适配,成功破解智能体长期记忆困局,实现记忆结构化、可控化、低成本化管理,全面提升 AI Agent 的任务执行效率与交互连贯性,为用户带来稳定、高效、可观测的智能使用体验。
OpenViking 深度剖析
OpenViking 是什么?
OpenViking 信息图,由 vaka 知识助手生成
(https://aisearch.volcengine.com/)
用一句话概括:OpenViking 是 AI Agent 的外挂记忆体,也是一个面向 AI Agent 的上下文数据库。
它以插件形式接入 OpenClaw,专门解决一件事:让你的“龙虾”不再健忘。
OpenClaw 原生记忆方案存在三大痛点:
-
记忆碎片化:历史对话以平铺方式存储,信息结构混乱,关键内容难以精准检索与召回;
-
Token 成本失控:为保障信息留存,需将大量历史上下文塞入对话窗口,导致输入 Token 数量持续攀升,使用成本居高不下;
-
跨会话记忆断裂:新建对话后智能体记忆重置,历史需求与信息需重复告知,交互效率低下。
OpenViking 用一个简单但聪明的思路解决了这些问题:创新性采用文件系统管理模式重构 Agent 记忆逻辑,将每一条记忆转化为结构化 Markdown 文件,支持索引、检索、可视化展示与全链路管理。用户可通过 ov tui 指令进入文件管理界面,直观查看、导入、导出、删除记忆内容,实现记忆读写全流程可观测、可管控,无需面对黑盒式记忆机制,清晰掌握智能体信息留存状态。
先看效果
在和“龙虾”对话的过程中,OpenViking 会自动记录对话内容,写入可观测的记忆文件库。
OpenViking 能够让“龙虾”记住用户的风格偏好,再也不用和“龙虾”费尽口舌。
有了 OpenViking 之后,可以直接导入已有记忆,再也不用从零开始培养新“龙虾”。
接入 OpenViking,“龙虾”将会记住做过的事情。
OpenViking 好在哪里?
数据先说话
先看评测结果。以 LoCoMo10 (https://github.com/snap-research/locomo) 作为测试集(专注于长程对话理解与记忆,1540 条有效用例),将原生 OpenClaw、OpenClaw+OpenViking(关闭原生记忆)、OpenClaw+OpenViking(开启原生记忆)三种方案横向对比:
方案
|
任务完成率
|
输入 Token 总计
| |
OpenClaw (memory-core)
|
35.65%
|
24,611,530
| |
OpenClaw + OpenViking Plugin (-memory-core)
|
52.08%
|
4,264,396
| |
OpenClaw + OpenViking Plugin (+memory-core)
|
51.23%
|
2,099,622
|
OpenViking 不仅任务完成率最高,token 消耗反而是最低的。
- 当开启原生记忆时(与 +memory-core 组合):
- 相较于原生 OpenClaw,任务完成率提升 43% ,而输入 token 成本剧降 91% 。
- 当关闭原生记忆时(与 -memory-core 组合):
-
相较于原生 OpenClaw,任务完成率大幅提升 49% ,输入 token 成本则降低了 83% 。
无论是否保留原生记忆,集成 OpenViking 都能为 OpenClaw 带来巨大的性能飞跃和成本节约。
效果更好,成本更低,这两件事通常是矛盾的,OpenViking 为什么能同时做到?这就要说到它的设计思路。
OpenViking 的核心功能
OpenViking 把记忆插件的角色从"记忆的搬运工"升级成了"记忆的管理员"。
怎么理解这个差别?
过往的记忆插件就像图书馆的借还书窗口——你要书,给你;你还书,收下,仅此而已。
而新版 OpenViking 记忆插件就像图书馆馆长——决定哪些书放前台、哪些书进仓库、来了什么读者该推荐什么、整个图书馆怎么运转。
memory 插槽 = 图书馆的「借还书窗口」
-
你只能借书(recall)
-
你只能还书(capture)
-
窗口不管书架怎么摆
contextEngine 插槽 = 图书馆的「馆长」
-
决定书架怎么摆(上下文排列)
-
决定哪些书放前台(热数据常驻)
-
决定哪些书进仓库(冷存储归档)
-
来了什么读者推荐什么书(意图匹配)
-
管理整个图书馆的运作
OpenViking contextEngine 示意图,由 Seedream 5.0 lite 生成
这意味着 OpenViking 现在能参与对话全程的上下文管理,在对话开始、组装、写入、压缩、结束等各个关键时刻都能介入,而不只是被动地存取记忆。
另外还有两个实用功能:
记忆冷热分层。 记忆存多了之后,今天刚用过的和三个月前的老记忆混在一起,搜索质量会下降。新版会自动把"最近常用"的记忆放在热层,低频的旧记忆归档到冷层。每次搜索只扫热层,冷层按需才调——用多少取多少,刚好够用。
中文 token 计算修复。 旧版按英文标准估算字数,放到中文场景下算不准,要么塞太多内容撑爆上下文,要么塞太少信息不够用。新版专门修了中日韩字符的计算方式,中文用户直接受益。
OpenViking 的设计哲学
OpenViking 的设计思路:能简单就别复杂,除非你真的需要复杂。
四大核心理念:
文件系统管理范式
分层上下文按需加载
目录递归检索
可观测与自迭代
拿"搜索"这件事来说。一般的 AI 记忆系统是这样工作的:先捞出一堆可能相关的内容,再用另一个模型筛一遍,才给你结果——两步走,多一个模型,速度也更慢。
而 OpenViking 换了个思路:在搜之前就先想清楚用户到底想找什么 ,然后一次精准命中。就像考试前先搞清楚考点,比考完了再去改卷要聪明得多。这样不用多搭一个模型,还把 AI 本身"理解语义"的能力用起来了,而不是靠堆工具。
存储这边也一样克制。OpenViking 默认用的是最简单的"逐条遍历"方式找记忆,只要记忆条数不超过一万条,这种方式反而是最准的,一条都不会漏。那些"更高级"的索引算法,在数据量小的时候反而会引入额外开销,还会漏掉一些结果。数据量匹配的时候,简单就是最优解。
保姆级教程启用 OpenViking 插件
可参考 Coding Plan 接入 OpenViking 文档进行快速配置:
https://www.volcengine.com/docs/82379/2288685?lang=zh
1. 升级 OpenClaw 版本
确保 OpenClaw 版本 ≥ 2026.3.7
可以在终端执行 openclaw update 升级到最新版本
2. 安装 OpenViking 插件
-
在终端执行 OpenViking 插件安装命令
npm install -g openclaw-openviking-setup-helper
ov-install
-
插件默认安装至本地的 OpenClaw,可直接回车确认
-
配置 OpenViking 的项目空间,回车则配置默认路径
-
默认端口为 1933
-
默认 AGFS 端口为 1833:
-
VLM模型默认为 doubao-seed-2.0-pro,可以先回车确认,后续在配置文件中修改为 Coding Plan 模型
-
Embedding 模型默认为 doubao-embedding-vision,可以先回车确认,后续在配置文件中修改为 Coding Plan 模型
-
API Key 步骤可以留空跳过,后续步骤会通过修改配置文件来配置火山方舟 Coding Plan 模型。
-
出现 installation completed 即代表安装成功
3. 配置火山方舟 Coding Plan 模型
-
在设定的 OpenViking 项目空间中找到 ov.conf 文件进行配置(默认路径为:~/.openviking/ov.conf)
-
修改 embedding 和 vlm 的 model 和 api_base 的字段,新增 provider 字段,可参考如下代码进行配置
前往获取 API Key:
https://console.volcengine.com/ark/region:ark+cn-beijing/apikey
"embedding": {
"dense": {
"backend": "volcengine",
"api_key": "<替换为你的API Key>",
"provider" : "volcengine",
"model": "doubao-embedding-vision",
"api_base": "https://ark.cn-beijing.volces.com/api/coding/v3",
"dimension": 1024,
"input": "multimodal"
}
},
"vlm": {
"backend": "volcengine",
"api_key": "<替换为你的API Key>",
"provider" : "volcengine",
"model": "doubao-seed-2.0-pro",
"api_base": "https://ark.cn-beijing.volces.com/api/coding/v3",
"temperature": 0.1,
"max_retries": 3
}
4. 启动 OpenClaw + OpenViking
-
安装成功以后,运行以下命令启动 OpenClaw + OpenViking:
source ~/.openclaw/openviking.env && openclaw gateway restart
-
检查插件状态,执行如下命令
openclaw plugins
出现 openviking: registered context-engine 代表拉取成功。
-
接着验证插件是否启动,执行:
openclaw config get plugins.slots.contextEngine
出现 openviking,则验证启动成功。
5. 使用方法
自行记忆
对话后验证:
如果是云服务器安装的OpenViking插件,则:在终端中进入 OpenViking 的项目空间(例如 ~/.openviking)
cd ~/.openviking
启用虚拟环境
source venv/bin/activate
进入 OpenViking TUI:
ov tui
如果是本地 MacOS 安装的 OpenViking,则直接在新建终端中执行命令
ov tui
进入 OpenViking TUI
然后就可以看到刚刚龙虾存下的记忆了:
在对话过程中,OpenViking 会持续自动总结记忆:
导入记忆
支持将一只“龙虾”的记忆传给新“龙虾”,不用担心重复训练适配:
OpenViking 里面的数据库也成功更新:
提取记忆
当你想了解某一条具体记忆的细节的时候,可以直接让“龙虾”从 OpenViking 中提取:
删除记忆
已经过时的记忆可以通过直接和“龙虾”对话,让“龙虾”从 OpenViking 中删除,保持记忆库整洁高效:
OpenViking 凭借创新的记忆管理架构、精准的算法优化与火山方舟 Coding Plan 的深度协同,解决“龙虾”长期记忆痛点,在提升任务完成效率的同时大幅降低使用成本,为企业级用户与开发者提供稳定、可控、高效的智能体记忆解决方案,推动智能交互向更高效、更智能、更经济的方向持续发展。
关注公众号回复:ArkClaw 攻略 ,领取“养虾宝典”,开启 AI 进化之旅。
