告别人工智障!Dify+KAG:秒变「AI推理大师」。蚂蚁OpenSPG部署全解(含实测)

向量数据库大模型数据库

字数 2455,阅读大约需 13 分钟

RAG (Retrieval-Augmented Generation,检索增强生成 )——你一定不陌生吧!

答不对搜不到 ,是 "非结构化文档" 问答中常见的两大痛点。

因为RAG存在向量相似度与知识推理相关性差距较大、对知识逻辑(如数值、时间关系、专家规则等)不敏感,严重降低了使用体验。

于是,
KAG (Knowledge-Aware Graph Generator,知识感知图谱生成器 )应运而生。

它旨在充分利用知识图谱和向量检索 的优势,为复杂问题提供更准确、更符合上下文的答案


我们先了解下 KAG 是什么,如何部署、配置和使用,包括API使用 和 接入Dify(一手实测),最后是RAG和KAG的简单评测。

让你从0到1学会 KAG 的 What 和 How。

  1. 什么是KAG

OpenSPG 是由蚂蚁集团与 OpenKG 社区联合推出的一款基于 SPG(Semantic-enhanced Programmable Graph,语义增强可编程图) 框架的知识图谱引擎

KAG 是基于OpenSPG引擎,用于为垂直领域知识库构建逻辑推理和 Q&A 解决方案。

主要特点

    1. 克服传统 RAG 向量相似性计算的复杂性
    1. 克服RAG 的不确定性
    1. 支持逻辑推理和多跳事实问答

工作原理

picture.image

如上图所示,KAG架构由三个核心组件组成: KAG-BuilderKAG-SolverKAG-Model

  • KAG-Builder 负责构建离线索引。该模块提出了一个兼容大型语言模型的知识表示框架,并实现了知识结构与文本片段之间的相互索引机制。 KAG-Builder相关代码[1]
  • KAG-Solver 引入以逻辑形式为导向的混合推理引擎,融合大型语言模型推理、知识推理和数理逻辑推理,并利用语义推理进行知识对齐,提升KAG-Builder和KAG-Solver在知识表示和检索方面的准确性。 KAG-Solver相关代码[2]
  • KAG-Model 基于通用语言模型,并针对各个模块所需的特定能力进行优化,从而提升整体模块性能。
  1. 部署 OpenSPG

硬件要求


 
 
 
 
   
CPU ≥ 8 cores;  
RAM ≥ 32 GB;  
Disk ≥ 100 GB;

软件要求

  • 操作系统

 
 
 
 
   
macOS 用户:macOS Monterey 12.6 或更新版本  
Linux 用户:CentOS 7 / Ubuntu 20.04 或更新版本  
Windows 用户:Windows 10 LTSC 2021 或更新版本
  • 应用软件

 
 
 
 
   
macOS / Linux 用户:Docker,Docker Compose  
Windows 用户:WSL 2 / Hyper-V,Docker,Docker Compose  
Docker ≥ 24.0.0 & Docker Compose ≥ v2.26.1.

启动服务


 
 
 
 
   
# 设置 HOME 环境变量(仅 Windows 用户需要执行)  
# set HOME=%USERPROFILE%  
  
# 拉取docker-compose.yaml 文件  
$ curl -sSL https://raw.githubusercontent.com/OpenSPG/openspg/refs/heads/master/dev/release/docker-compose.yml -o docker-compose.yml  
  
# 启动服务  
$ docker compose -f docker-compose.yml up -d

检查容器状态 docker ps

能看到 88877474 这两个关键端口已在运行

picture.image

docker logs 可以显示 openspg 服务端启动成功的标识


 
 
 
 
   
docker logs -f release-openspg-server

picture.image

访问openspg-kag 产品界面

在浏览器中访问 http://127.0.0.1:8887 ,使用默认用户名和密码登录(用户名: openspg ,密码: openspg@kag )。

picture.image

  1. 配置OpenSPG

以下是全局配置,包括通用配置、模型配置和用户配置

2.1 通用配置

通用配置包括图存配置、向量配置、提示词中英文配置

图存储配置


 
 
 
 
   
{  
  "database":"neo4j", # 图存储的数据库名称,固定和知识库英文名称保持一致,且不可修改  
  "uri":"neo4j://release-openspg-neo4j:7687",   
  "user":"neo4j", # 默认值为:neo4j  
  "password":"neo4j@openspg", # 默认值为:neo4j@openspg  
}

向量配置 (硅基流动[3]示例)


 
 
 
 
   
{  
    "type": "openai",  
    "model": "BAAI/bge-m3",  
    "base\_url": "https://api.siliconflow.cn/v1",  
    "api\_key": "你的硅基流动API-KEY",  
}

提示词中英文配置
用于模型调用时判断是否使用中文(zh )或英文(en )。


 
 
 
 
   
{  
    "biz\_scene":"default",  
    "language":"zh"  
}

picture.image

2.2 模型配置


 
 
 
 
   
{  
  "type": "maas",  
  "base\_url": "https://api.siliconflow.cn/v1",  
  "api\_key": "你的硅基流动API-KEY",  
  "model": "deepseek-ai/DeepSeek-V3",  
  "stream":"False",  
  "temperature":0.7  
}

picture.image

2.3 知识库配置

2.3.1 新建知识库

配置项:

  • • 知识库中文名称
  • • 知识库英文名称
  • • 图床、向量、提示词中英文配置均在第1步配置过了,默认即可

picture.image

2.3.2 新建知识

picture.image

设置最大长度和对话模型

picture.image

2.3.3 知识解析

解析完成,可以看到日志的6个过程:

数据读取(Reader)

从原始数据源(如文本、数据库)加载信息。 2. 2. 预处理与拆分(Splitter)

对数据进行清洗、分块或结构化处理。 3. 3. 知识抽取(Extractor)

提取实体、关系、属性等知识要素。 4. 4. 向量化(Vectorizer)

将知识转换为向量表示(如嵌入模型)。 5. 5. 对齐与融合(Alignment)

整合多源数据,解决冲突或冗余。 6. 6. 存储与输出(Writer)

将结果保存到知识库或下游系统。

picture.image

能在“详情”页看到知识解析分段效果,说明解析有效

picture.image

知识解析分段效果

就可以在"推理问答"页面进行问答了

picture.image

  1. 使用OpenSPG

openspg API参考[4]

3.1 API测试

请求方法 :POST
请求地址 :https://你的ip +8887端口 /v1/chat/completions/
请求参数 :3个Headers + 1个Body

Headers 参数】

  • • content-type: application/json
  • • Accept: text/event-stream
  • • Cookie:

Body 参数】

  • sessionId : ( Body parameter )知识库问答,当前会话的id,可以通过 1.5 创建
  • projectId : ( Body parameter )知识库的id。
  • thinking\_enabled : ( Body parameter )是否开启深度推理,开启 true
  • prompt : ( Body parameter ) 问题
  • • type: 支持的类型,目前只支持 text
  • • content: 具体问题

picture.image

其中

YOUR\_BROWSER\_COOKIES 按照以下步骤获取

OpenSPG页面 -- F12 -- Network -- Doc -- Name -- Header -- Cookie

picture.image

sessionIdprojectId在推理问答页面的网址中
假设推理问答页面网址:

https://ltzuda-fuwswy-8887.app.cloudstudio.work/#/analysisReasoning?projectId=3&sessionId=4

那么得到:

  • sessionId : 4
  • projectId : 3

可以手动 新建会话,也可以通过API创建
详见openspg API参考[5]

3.2 Dify+KAG 问答

Dify接KAG整体工作流如下所示

picture.image

Dify接KAG的整体工作流

节点1 :开始
节点2 :请求KAG

节点3 :提前最后一个Answer. 代码如下


 
 
 
 
   
def main(data: str) -> dict:  
  
    last\_answer = ""  
  
    # 按行分割数据  
    for line in data.split('\n'):  
        if line.startswith('data: {'):  
            try:  
                # 解析JSON数据  
                json\_data = json.loads(line[6:])  # 去掉"data: "前缀  
                if'answer'in json\_data:  
                    last\_answer = json\_data['answer']  
            except json.JSONDecodeError:  
                return {  
                    "result": "未提取到答案",  
                }  
  
    return {  
        "Last\_answer": last\_answer,  
    }

节点4 :直接回复


发起一次请求 相当于 在会话页面发送了一次对话 ,返回结果同时也会呈现在OpenSPG会话页面。


完整工作流可以看GitHub链接:GitHub工作流[6]
需要修改两处:请求地址你的Cookie

注1sessionIdprojectId 必须已存在,不能 请求回答 的同时让它创建
注2 :word 和 pdf 解析还存在bug,未解析成功,坐等后续产品的更新。。。

1.wps的.docx 分段时预览不成功
2.wps转的.pdf 分段时预览不成功
3.微软word2021的.docx 分段时预览不成功
4..微软word2021转的.pdf 成功!!!

4.简单评测 RAG 和 KAG

| 评测 | 具体描述 | | 评测文档 | https://github.com/WTFAcademy/WTF-Langchain/edit/main/01\_Hello\_Langchain/README.md | | 评测问题 | 请简介LangChain,OpenAl,以及它们的关系,再给我一段简单的Python程序演示LangChain的使用,最后请总结这第一课 | | 段落长度 | 512 | | 嵌入模型 | BAAI/bge-m3 | | RAG大模型 | deepseek-R1 | | KAG大模型 | deepseek-V3(KAG深度推理) |

(注:评测基于同一份文档和同一问题,结果可复现。)

4.1 RAG效果

提示词


 
 
 
 
   
请总结知识库的内容来回答问题,请列举知识库中的数据详细回答。当所有知识库内容都与问题无关时,你的回答必须包括“知识库中未找到您要的答案!”这句话。

picture.image

4.2 KAG效果

picture.image

picture.image

4.3 评测结果

评测维度与结果对比 ,如下表所示

| 评测维度 | RAG | KAG | | 思考深度 | 中等,部分上下文关联 | 深层逻辑推理 | | 思考时长 | ⚡️ 快(18s) | ⏳ 较慢(54s) | | 总结能力 | 结构化但缺乏归纳 | 完整人话总结 | | 语言自然度 | 技术术语较多 | 说人话 |


关键总结

KAG的深度优势

  • • 在相同文档和问题下,KAG能提取 多层语义关系 ,而RAG仅回答表层信息。
  • 案例对比
  • • RAG: "LangChain作为上层框架,可集成...通过LangChain的抽象层..."
  • • KAG: "LangChain可以通过其框架集成和利用OpenAI的模型"

RAG的速度与局限

  • • 用上DeepSeek-R1的RAG 虽然还是比 KAG 更快,但 牺牲了逻辑连贯性
  • • 适合 实时性要求高但总结要求低 的场景。

总结能力的本质差异

  • • KAG的总结呈现 教学式逻辑 (问题→方案→价值),而RAG输出 知识点罗列

4.4 评测结论

KAG在语义理解、总结能力和用户体验上显著优于RAG ,尤其在需要技术解释的场景中,其"说人话"的能力更符合实际需求。而RAG(含DeepSeek-R1)更适合对实时性敏感的轻量级问答。

写在最后

KAG 框架仍处于初期开发阶段,仍有改进和提升的空间。
期待更多格式的文件类型解析,以提升知识提取和问答的准确性和效率。


实践出真知,与君共勉。

引用链接

[1] KAG-Builder相关代码:https://github.com/OpenSPG/KAG/blob/master/kag/examples/medicine/builder/indexer.py
[2]KAG-Solver相关代码:https://github.com/OpenSPG/KAG/blob/master/kag/solver/main\_solver.py
[3]硅基流动:https://cloud.siliconflow.cn/i/xJvN9Ecu
[4]openspg API参考:https://openspg.yuque.com/ndx6g9/docs/xnxuhfldouqg0r2y
[5]openspg API参考:https://openspg.yuque.com/ndx6g9/docs/xnxuhfldouqg0r2y
[6]GitHub工作流:https://github.com/LGRY/Dify-dsl-lab.git

picture.image

picture.image

点击下方卡片 关注我们

picture.image

  
📢【三连好运 福利拉满】📢  
  
🌟 若本日推送有收获:  
👍 点赞 → 小手一抖,bug没有  
📌 在看 → 一点扩散,知识璀璨  
📥 收藏 → 代码永驻,防止迷路  
🍻 分享 → 传递战友,功德+999  
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步  
  
💬 若有槽点想输出:  
👉 评论区已铺好红毯,等你来战!  

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
vivo 容器化平台架构与核心能力建设实践
为了实现规模化降本提效的目标,vivo 确定了基于云原生理念构建容器化生态的目标。在容器化生态发展过程中,平台架构不断演进,并针对业务的痛点和诉求,持续完善容器化能力矩阵。本次演讲将会介绍 vivo 容器化平台及主要子系统的架构设计,并分享重点建设的容器化核心能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论