大模型的进化,map reduce是新方向

大模型机器学习算法

论文笔记分享,标题:Superposition Prompting: Improving and Accelerating Retrieval-Augmented Generation, ICML2024,代码开源

LMMs 在处理长文本时,一方面成本会跟着长度呈二次方增长,另一方面,更长的文本,LLMs还表现出“distraction phenomenon”,即prompt中的不相关上下文会降低输出质量。

一个新的方案,无需finetuning。在处理RAG任务时允许LLMs通过并行prompt路径处理输入文档,并在认为它们不相关时丢弃这些路径。

假如下图每一个颜色块是一个token,naive rag的token就是顺序的,后文的token会持续注意到上文信息。叠加提示词方法就是一个并行方案。picture.image

看注意力依赖更直观picture.image

使用MPT-7B模型时,在NaturalQuestions-Open数据集上,相比于传统的RAG方法,计算时间减少了93倍,准确率提高了43%。picture.image

后续为不详细的算法原理,代码开源地址:https://github.com/apple/ml-superposition-prompting/tree/main

使用ForkJoin的图来表示整个prompt。在这个结构中,每个query复制与documents配对,形成多个路径。(这样允许模型并行处理每个document和query的组合,然后通过剪枝丢弃不相关的路径,从而提高效率。)

然后这里有个细节,由于存在多个可能长度不一的路径,直接为每个token分配连续的整数位置可能会导致较短文档的token在模型中不公平。所以提出了一种平衡位置分配策略,通过调和平均来平衡不同长度路径的贡献,避免这个问题。picture.image对于每个路径 d,首先确定其在平衡状态下的起始位置 s_i ,然后使用这个起始位置和路径长度来分配该路径上所有token的位置。

使用bayes来计算每个文档相对于查询的后验概率,作为其相关性得分。选topk。用于路径剪枝。picture.image

其次还有path caching, path parallelization 等加速策略。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
CV 技术在视频创作中的应用
本次演讲将介绍在拍摄、编辑等场景,我们如何利用 AI 技术赋能创作者;以及基于这些场景,字节跳动积累的领先技术能力。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论