随着大模型上下文窗口扩大到100K-200K Token(开源)或者200万-1000万字(商业),不少人开始质疑检索增强生成(RAG)是否已经过时?
| 企业机构 | 模型名称 | 上下文长度 | 开/闭源 | 是否中文 | | 360 | 360Zhinao-7B-Chat-360K | 360K | 开源 | 是 | | 猎户星空 | Orion-14B-LongChat | 200K-320K | 开源 | 是 | | 元象XVERS | XVERSE-Long-256K | 256K | 开源 | 是 | | 上海AI Lab | InternLM2-Chat-7B/20B | 200K | 开源 | 是 | | 零一万物 | Yi-6B-200K | 200K | 开源 | 是 | | 百川智能 | Baichuan2-192K | 192K | 开源 | 是 | | NousResearch | Yarn-Mistral-7b-128k | 128K | 开源 | 否 | | Anima | Anima-7B-100K | 100K | 开源 | 否,中文需要申请 | | Anthropic | Claude 2.1 | 200K | 闭源 | 是 | | 智谱AI | GLM4 | 128K | 闭源 | 是 | | OpenAI | ChatGPT-Turbo | 128K | 闭源 | 是 | | 月之暗面 | Kimi Chat | 20万字 | 闭源 | 是 | | 月之暗面 | Kimi Chat Longer | 200万字 | 闭源 | 是 | | 通义千问 | qwen | 1000万字 | 开/闭源 | 是 |
LangChain团队(Lance Martin 软件工程师) 结合几个最新研究项目成果来探讨、分析这个问题。通过 多针“大海捞针” 方法,深入分析了长上下文大模型在事实推理和检索( reasoning & retrieval in long context LLMs) 方面的局限性,接着分析了长上下文给RAG带来的新变化,如以文档为中心的索引技术( RAPTOR+Long embeddings )和RAG的流程变化( Self-RAG、CRAG )。
多针“大海捞针” :
https://blog.langchain.dev/multi-needle-in-a-haystack
Challenge may be recency bias in LLMs:
https://arxiv.org/pdf/2310.01427.pdf
RAG from scratch:
https://github.com/langchain-ai/rag-from-scratch
RAG新突破RAPTOR:
https://github.com/parthsarthi03/raptor
Dense X Retrieval:
https://arxiv.org/pdf/2312.06648.pdf
Together Embeddings:
https://www.together.ai/blog/embeddings-endpoint-release
Self-RAG:
https://arxiv.org/abs/2310.11511
CRAG:Corrective Retrieval Augmented Generation
https://arxiv.org/abs/2401.15884
推荐阅读
- • 对齐LLM偏好的直接偏好优化方法:DPO、IPO、KTO
- • 2024:ToB、Agent、多模态
- • TA们的RAG真正投产了吗?(上)
- • Agent到多模态Agent再到多模态Multi-Agents系统的发展与案例讲解(1.2万字,20+文献,27张图)
欢迎关注我的公众号“ PaperAgent ”, 每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。