火山养“龙虾”日志 | 告别“金鱼式”对话!OpenViking + 方舟 Coding Plan,让你的“龙虾”过目不忘

点击上方👆蓝字关注我们!

picture.image

在与“龙虾”的交互过程中,用户普遍面临一个核心痛点:它似乎“记性不好”。每一次开启新的对话,都意味着需要重新交代背景、重复个人偏好,仿佛在训练一个永远无法毕业的实习生。这种“跨会话记忆断裂”不仅消耗了用户大量的沟通成本,也极大地限制了“龙虾”在复杂、长期任务中的实际应用价值。因此,如何为“龙虾”构建持久、精准且成本可控的长期记忆能力成为关键。

OpenViking 作为面向 AI Agent 的专业外挂记忆体与上下文数据库,通过与火山方舟 Coding Plan 深度适配,成功破解智能体长期记忆困局,实现记忆结构化、可控化、低成本化管理,全面提升 AI Agent 的任务执行效率与交互连贯性,为用户带来稳定、高效、可观测的智能使用体验。

OpenViking 深度剖析

OpenViking 是什么?

picture.image

OpenViking 信息图,由 vaka 知识助手生成

(https://aisearch.volcengine.com/)

用一句话概括:OpenViking 是 AI Agent 的外挂记忆体,也是一个面向 AI Agent 的上下文数据库。

它以插件形式接入 OpenClaw,专门解决一件事:让你的“龙虾”不再健忘。

OpenClaw 原生记忆方案存在三大痛点:

  • 记忆碎片化:历史对话以平铺方式存储,信息结构混乱,关键内容难以精准检索与召回;

  • Token 成本失控:为保障信息留存,需将大量历史上下文塞入对话窗口,导致输入 Token 数量持续攀升,使用成本居高不下;

  • 跨会话记忆断裂:新建对话后智能体记忆重置,历史需求与信息需重复告知,交互效率低下。

OpenViking 用一个简单但聪明的思路解决了这些问题:创新性采用文件系统管理模式重构 Agent 记忆逻辑,将每一条记忆转化为结构化 Markdown 文件,支持索引、检索、可视化展示与全链路管理。用户可通过 ov tui 指令进入文件管理界面,直观查看、导入、导出、删除记忆内容,实现记忆读写全流程可观测、可管控,无需面对黑盒式记忆机制,清晰掌握智能体信息留存状态。

先看效果

在和“龙虾”对话的过程中,OpenViking 会自动记录对话内容,写入可观测的记忆文件库。

OpenViking 能够让“龙虾”记住用户的风格偏好,再也不用和“龙虾”费尽口舌。

有了 OpenViking 之后,可以直接导入已有记忆,再也不用从零开始培养新“龙虾”。

接入 OpenViking,“龙虾”将会记住做过的事情。

OpenViking 好在哪里?

数据先说话

先看评测结果。以 LoCoMo10 (https://github.com/snap-research/locomo) 作为测试集(专注于长程对话理解与记忆,1540 条有效用例),将原生 OpenClaw、OpenClaw+OpenViking(关闭原生记忆)、OpenClaw+OpenViking(开启原生记忆)三种方案横向对比:

方案

|

任务完成率

|

输入 Token 总计

| |

OpenClaw (memory-core)

|

35.65%

|

24,611,530

| |

OpenClaw + OpenViking Plugin (-memory-core)

|

52.08%

|

4,264,396

| |

OpenClaw + OpenViking Plugin (+memory-core)

|

51.23%

|

2,099,622

|

OpenViking 不仅任务完成率最高,token 消耗反而是最低的。

  • 当开启原生记忆时(与 +memory-core 组合):
  • 相较于原生 OpenClaw,任务完成率提升 43% ,而输入 token 成本剧降 91%
  • 当关闭原生记忆时(与 -memory-core 组合):
  • 相较于原生 OpenClaw,任务完成率大幅提升 49% ,输入 token 成本则降低了 83%

无论是否保留原生记忆,集成 OpenViking 都能为 OpenClaw 带来巨大的性能飞跃和成本节约。

效果更好,成本更低,这两件事通常是矛盾的,OpenViking 为什么能同时做到?这就要说到它的设计思路。

OpenViking 的核心功能

OpenViking 把记忆插件的角色从"记忆的搬运工"升级成了"记忆的管理员"。

怎么理解这个差别?

过往的记忆插件就像图书馆的借还书窗口——你要书,给你;你还书,收下,仅此而已。

而新版 OpenViking 记忆插件就像图书馆馆长——决定哪些书放前台、哪些书进仓库、来了什么读者该推荐什么、整个图书馆怎么运转。

memory 插槽 = 图书馆的「借还书窗口」

  • 你只能借书(recall)

  • 你只能还书(capture)

  • 窗口不管书架怎么摆

contextEngine 插槽 = 图书馆的「馆长」

  • 决定书架怎么摆(上下文排列)

  • 决定哪些书放前台(热数据常驻)

  • 决定哪些书进仓库(冷存储归档)

  • 来了什么读者推荐什么书(意图匹配)

  • 管理整个图书馆的运作

picture.image

OpenViking contextEngine 示意图,由 Seedream 5.0 lite 生成

这意味着 OpenViking 现在能参与对话全程的上下文管理,在对话开始、组装、写入、压缩、结束等各个关键时刻都能介入,而不只是被动地存取记忆。

另外还有两个实用功能:

记忆冷热分层。 记忆存多了之后,今天刚用过的和三个月前的老记忆混在一起,搜索质量会下降。新版会自动把"最近常用"的记忆放在热层,低频的旧记忆归档到冷层。每次搜索只扫热层,冷层按需才调——用多少取多少,刚好够用。

中文 token 计算修复。 旧版按英文标准估算字数,放到中文场景下算不准,要么塞太多内容撑爆上下文,要么塞太少信息不够用。新版专门修了中日韩字符的计算方式,中文用户直接受益。

OpenViking 的设计哲学

OpenViking 的设计思路:能简单就别复杂,除非你真的需要复杂。

四大核心理念:

picture.image

文件系统管理范式

picture.image

分层上下文按需加载

picture.image

目录递归检索

picture.image

可观测与自迭代

拿"搜索"这件事来说。一般的 AI 记忆系统是这样工作的:先捞出一堆可能相关的内容,再用另一个模型筛一遍,才给你结果——两步走,多一个模型,速度也更慢。

而 OpenViking 换了个思路:在搜之前就先想清楚用户到底想找什么 ,然后一次精准命中。就像考试前先搞清楚考点,比考完了再去改卷要聪明得多。这样不用多搭一个模型,还把 AI 本身"理解语义"的能力用起来了,而不是靠堆工具。

存储这边也一样克制。OpenViking 默认用的是最简单的"逐条遍历"方式找记忆,只要记忆条数不超过一万条,这种方式反而是最准的,一条都不会漏。那些"更高级"的索引算法,在数据量小的时候反而会引入额外开销,还会漏掉一些结果。数据量匹配的时候,简单就是最优解。

保姆级教程启用 OpenViking 插件

可参考 Coding Plan 接入 OpenViking 文档进行快速配置:

https://www.volcengine.com/docs/82379/2288685?lang=zh

1. 升级 OpenClaw 版本

确保 OpenClaw 版本 ≥ 2026.3.7

可以在终端执行 openclaw update 升级到最新版本

picture.image

2. 安装 OpenViking 插件

  1. 在终端执行 OpenViking 插件安装命令

  
npm install -g openclaw-openviking-setup-helper  
ov-install

picture.image

picture.image

  1. 插件默认安装至本地的 OpenClaw,可直接回车确认

picture.image

  1. 配置 OpenViking 的项目空间,回车则配置默认路径

picture.image

  1. 默认端口为 1933

picture.image

  1. 默认 AGFS 端口为 1833:

picture.image

  1. VLM模型默认为 doubao-seed-2.0-pro,可以先回车确认,后续在配置文件中修改为 Coding Plan 模型

picture.image

  1. Embedding 模型默认为 doubao-embedding-vision,可以先回车确认,后续在配置文件中修改为 Coding Plan 模型

picture.image

  1. API Key 步骤可以留空跳过,后续步骤会通过修改配置文件来配置火山方舟 Coding Plan 模型。

picture.image

  1. 出现 installation completed 即代表安装成功

picture.image

3. 配置火山方舟 Coding Plan 模型

  1. 在设定的 OpenViking 项目空间中找到 ov.conf 文件进行配置(默认路径为:~/.openviking/ov.conf)

  2. 修改 embedding 和 vlm 的 model 和 api_base 的字段,新增 provider 字段,可参考如下代码进行配置

前往获取 API Key:

https://console.volcengine.com/ark/region:ark+cn-beijing/apikey

picture.image

  
"embedding": {  
    "dense": {  
      "backend": "volcengine",  
      "api_key": "<替换为你的API Key>",  
      "provider" : "volcengine",  
      "model": "doubao-embedding-vision",  
      "api_base": "https://ark.cn-beijing.volces.com/api/coding/v3",  
      "dimension": 1024,  
      "input": "multimodal"  
    }  
  },  
  "vlm": {  
    "backend": "volcengine",  
    "api_key": "<替换为你的API Key>",  
    "provider" : "volcengine",  
    "model": "doubao-seed-2.0-pro",  
    "api_base": "https://ark.cn-beijing.volces.com/api/coding/v3",  
    "temperature": 0.1,  
    "max_retries": 3  
  }

picture.image

4. 启动 OpenClaw + OpenViking

  1. 安装成功以后,运行以下命令启动 OpenClaw + OpenViking:

  
source ~/.openclaw/openviking.env && openclaw gateway restart

picture.image

  1. 检查插件状态,执行如下命令

  
openclaw plugins

picture.image

出现 openviking: registered context-engine 代表拉取成功。

  1. 接着验证插件是否启动,执行:

  
openclaw config get plugins.slots.contextEngine

picture.image

出现 openviking,则验证启动成功。

5. 使用方法

自行记忆

对话后验证:

如果是云服务器安装的OpenViking插件,则:在终端中进入 OpenViking 的项目空间(例如 ~/.openviking)

  
cd ~/.openviking

启用虚拟环境

  
source venv/bin/activate

进入 OpenViking TUI:

  
ov tui

如果是本地 MacOS 安装的 OpenViking,则直接在新建终端中执行命令

  
ov tui

进入 OpenViking TUI

然后就可以看到刚刚龙虾存下的记忆了:

picture.image

picture.image

在对话过程中,OpenViking 会持续自动总结记忆:

picture.image

picture.image

picture.image

picture.image

导入记忆

支持将一只“龙虾”的记忆传给新“龙虾”,不用担心重复训练适配:

picture.image

OpenViking 里面的数据库也成功更新:

picture.image

picture.image

picture.image

picture.image

提取记忆

当你想了解某一条具体记忆的细节的时候,可以直接让“龙虾”从 OpenViking 中提取:

picture.image

picture.image

删除记忆

已经过时的记忆可以通过直接和“龙虾”对话,让“龙虾”从 OpenViking 中删除,保持记忆库整洁高效:

picture.image

OpenViking 凭借创新的记忆管理架构、精准的算法优化与火山方舟 Coding Plan 的深度协同,解决“龙虾”长期记忆痛点,在提升任务完成效率的同时大幅降低使用成本,为企业级用户与开发者提供稳定、可控、高效的智能体记忆解决方案,推动智能交互向更高效、更智能、更经济的方向持续发展。

关注公众号回复:ArkClaw 攻略 ,领取“养虾宝典”,开启 AI 进化之旅。

0
0
0
0
评论
未登录
暂无评论