大模型RAG的风,从GraphRAG吹到了MemoryRAG

大模型机器学习算法

最近相关的标题应该是很多了,RAG的热浪从GraphRAG吹到了MemoryRAG,节奏很快。论文标题MemoRAG: Moving towards Next-Gen RAG Via Memory-Inspired Knowledge Discovery。智源BAAI开源,代码https://github.com/qhjqhj00/MemoRAG

picture.image

如上图,对比标准的RAG,多了一个记忆模型生成线索,草稿答案插到召回之前。(别说跟hyde碰瓷?)

记忆模型的主要目的是逐步将原始输入token压缩为明显更小的一组记忆token,同时保留基本的语义信息。想实现这个过程,作者使用一组记忆token插在模型的每一步的上下文窗口之后。看下图,先看x,每个窗口之后添加k个记忆token,算attention的时候,k,v会用到历史的cache 记忆token,q取当前窗口的token。picture.image

这种记忆模型仍然是通过预训练+sft训练完成,训练目标如下,给定最近的token和历史记忆,最大化下一个token的概率:

picture.image

开源了2个模型:

线索示例:

picture.image

整体取得了不错的结果:picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论