🔥 大型语言模型(LLM)已经席卷了NLP社区、AI社区和全世界。以下是关于大型语言模型的精选资源列表,特别是与ChatGPT相关的内容。它还包含LLM训练框架、LLM部署工具、LLM相关的课程和教程以及所有公开可用的LLM检查点和API。
这个开源库已经在GitHub上收获了 239,000个星标 ,见证了它的火爆程度。
话不多说,让我们一起来看看吧。
热门LLM项目
•TinyZero[1] - DeepSeek R1-Zero的干净、简约、可访问的重现•open-r1[2] - DeepSeek-R1的完全开源重现•DeepSeek-R1[3] - DeepSeek的第一代推理模型•Qwen2.5-Max[4] - 探索大规模MoE模型的智能•OpenAI o3-mini[5] - 推动具有成本效益的推理前沿•DeepSeek-V3[6] - 首个开源GPT-4o级别模型
目录
•Awesome-LLM •里程碑论文 •其他论文 •LLM排行榜 •开放LLM •LLM数据 •LLM评估 •LLM训练框架 •LLM推理 •LLM应用 •LLM书籍 •关于LLM的伟大思想 •其他
里程碑论文
里程碑论文[7]
其他论文
注意
如果你对LLM领域感兴趣,可以参考上面列出的里程碑论文,帮助你探索其历史和前沿状态。然而,LLM的每个方向都提供了独特的见解和贡献,这对理解该领域整体非常重要。有关各个子领域的详细论文列表,请参考以下链接:
其他论文[8]
LLM排行榜
•Chatbot Arena Leaderboard[9] - 一个大型语言模型(LLM)基准平台,提供匿名、随机化的对战,采用众包方式。•LiveBench[10] - 一个具有挑战性、无污染的LLM基准。•Open LLM Leaderboard[11] - 旨在跟踪、排名并评估LLM和聊天机器人,随着它们的发布。•AlpacaEval[12] - 使用Nous基准套件的指令跟随语言模型自动评估器。
其他排行榜[13]
开放LLM[14]
•DeepSeek •阿里巴巴 •Meta •Mistral AI •谷歌 •苹果 •微软 •AllenAI •xAI •Cohere •01-ai •百川 •Nvidia •BLOOM •智谱AI •OpenBMB •RWKV基金会 •ElutherAI •Stability AI •BigCode •DataBricks •上海AI实验室
LLM数据
参考资料:LLMDataHub[15]
•IBM data-prep-kit[16] - 用于高效处理非结构化数据的开源工具包,具有预构建模块和本地到集群的可扩展性。•Datatrove[17] - 通过提供一组平台无关、可定制的管道处理模块,将数据处理从脚本化的混乱中解脱出来。•Dingo[18] - Dingo:一款全面的数据质量评估工具•FastDatasets[19] - 一个强大的工具,用于为大型语言模型创建高质量的训练数据集
LLM评估
•lm-evaluation-harness[20] - 用于少量样本评估语言模型的框架。•lighteval[21] - 一个轻量级LLM评估套件,Hugging Face在内部使用。•simple-evals[22] - OpenAI提供的评估工具。•其他评估框架[23]
LLM训练框架
•Meta Lingua[24] - 一个精简、高效、易于修改的代码库,用于研究LLM。•Litgpt[25] - 20多种高性能LLM,具有预训练、微调和大规模部署的方案。•nanotron[26] - 最简化的大型语言模型3D并行训练。•DeepSpeed[27] - DeepSpeed是一个深度学习优化库,使分布式训练和推理变得简单、高效和有效。•Megatron-LM[28] - 进行大规模变换器模型训练的持续研究。•torchtitan[29] - 一个用于大规模模型训练的本地PyTorch库。•其他框架[30]
LLM推理
参考资料:llm-inference-solutions[31]
•SGLang[32] - SGLang是一个快速的服务框架,用于大型语言模型和视觉语言模型。•vLLM[33] - 一个高吞吐量且内存高效的LLM推理和服务引擎。•llama.cpp[34] - 使用C/C++进行LLM推理。•ollama[35] - 启动Llama 3、Mistral、Gemma及其他大型语言模型。•TGI[36] - 一个部署和服务大型语言模型(LLMs)的工具包。•TensorRT-LLM[37] - Nvidia的LLM推理框架•其他部署工具[38]
LLM应用
参考资料:极棒的llm-apps[39]
•dspy[40] - DSPy:用于编程——而非提示——基础模型的框架。•LangChain[41] — 一个流行的Python/JavaScript库,用于链式连接语言模型提示序列。•LlamaIndex[42] — 一个Python库,用于为LLM应用增强数据。•更多应用[43]
LLM教程和课程
•Andrej Karpathy系列[44] - 我最喜欢的!•Umar Jamil系列[45] - 高质量的教育视频,不容错过。•Alexander Rush系列[46] - 高质量的教育材料,不容错过。•llm-course[47] - 进入大型语言模型(LLMs)的课程,包含路线图和Colab笔记本。•UWaterloo CS 886[48] - 基础模型的最新进展。•CS25-Transformers United[49] •ChatGPT提示工程[50] •Princeton[51]: 理解大型语言模型 •CS324 - 大型语言模型[52] •GPT的状态[53] •让我们从零开始构建GPT:从代码到实现[54] •minbpe[55] - 用于LLM分词的字节对编码(BPE)算法的最小化、干净的代码。•femtoGPT[56] - 用Rust实现的最小化生成预训练变换器。•Neurips2022[57]-基础模型的基础稳健性 •ICML2022-欢迎进入“巨型模型”时代:训练和服务更大模型的技术和系统[58] •60行NumPy代码实现GPT[59]
LLM书籍
•Generative AI with LangChain[60] : 使用Python、ChatGPT和其他LLM构建大型语言模型(LLM)应用——附带一个GitHub仓库,展示了很多功能。
•Build a Large Language Model (From Scratch)[61] - 构建你自己的工作LLM的指南。
•BUILD GPT[62]: HOW AI WORKS - 解释如何从零开始编码生成预训练变换器(GPT)。
•Hands-On Large Language Models: Language Understanding and Generation[63] - 探索大型语言模型的世界,本书包含超过275个自制图示!
•The Chinese Book for Large Language Models[64] - 一本基于大型语言模型调查的入门LLM教科书。
关于LLM的伟大思想
•为什么所有公开复现的GPT-3都失败了?[65] •指令调优的阶段性回顾[66] •LLM驱动的自主代理[67] •为什么你应该致力于AI代理![68] •谷歌:“我们没有护城河,OpenAI也没有”[69] •AI竞争声明[70] •提示工程[71] •诺姆·乔姆斯基:ChatGPT的虚假承诺[72] •ChatGPT有1750亿个参数吗?技术分析[73] •GPT是如何获得其能力的?追溯语言模型的涌现能力来源[74] •开放预训练变换器[75] •大型语言模型中的扩展、涌现与推理[76]
其他[77]
•Emergent Mind[78] - 最新的AI新闻,由GPT-4策划和解释。•ShareGPT - 一键分享你最疯狂的ChatGPT对话。•主要LLM + 数据可用性[79] •500+最佳AI工具[80] •Cohere Summarize Beta - 介绍Cohere Summarize Beta:一个新的文本总结端点•chatgpt-wrapper - ChatGPT Wrapper是一个开源的非官方Python API和CLI,可以让你与ChatGPT互动。•Cursor[81] - 使用强大的AI写作、编辑和聊天你的代码。•AutoGPT - 一个展示GPT-4语言模型能力的实验性开源应用。•OpenAGI - 当LLM遇到领域专家。•EasyEdit[82] - 一个易于使用的框架,用于编辑大型语言模型。•chatgpt-shroud - 一个Chrome扩展程序,用于OpenAI的ChatGPT,通过轻松隐藏和显示聊天历史来增强用户隐私。适合屏幕共享时的隐私保护。
贡献
这是一个活跃的代码库,我们欢迎您的贡献!
如果我不确定某些拉取请求是否对LLM有帮助,我将保持它们的开放状态,你可以通过添加👍来投票支持它们。
往期精彩内容回顾
更多信息
山行AI希望本文对你有所帮助,由笔者整理自:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#miscellaneous,感谢点赞、转发!
References
[1]
TinyZero:https://github.com/Jiayi-Pan/TinyZero
[2]
open-r1:https://github.com/huggingface/open-r1
[3]
DeepSeek-R1:https://github.com/deepseek-ai/DeepSeek-R1
[4]
Qwen2.5-Max:https://qwenlm.github.io/blog/qwen2.5-max/
[5]
OpenAI o3-mini:https://openai.com/index/openai-o3-mini/
[6]
DeepSeek-V3:https://github.com/deepseek-ai/DeepSeek-V3
[7]
里程碑论文:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#milestone-papers
[8]
其他论文:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#other-papers
[9]
Chatbot Arena Leaderboard:https://huggingface.co/spaces/lmarena-ai/chatbot-arena-leaderboard
[10]
LiveBench:https://livebench.ai/#/
[11]
Open LLM Leaderboard:https://huggingface.co/spaces/open-llm-leaderboard/open\_llm\_leaderboard
[12]
AlpacaEval:https://tatsu-lab.github.io/alpaca\_eval/
[13]
其他排行榜:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-leaderboard
[14]
开放LLM:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#open-llm
[15]
LLMDataHub:https://github.com/Zjh-819/LLMDataHub
[16]
IBM data-prep-kit:https://github.com/data-prep-kit/data-prep-kit
[17]
Datatrove:https://github.com/huggingface/datatrove
[18]
Dingo:https://github.com/DataEval/dingo
[19]
FastDatasets:https://github.com/ZhuLinsen/FastDatasets
[20]
lm-evaluation-harness:https://github.com/EleutherAI/lm-evaluation-harness
[21]
lighteval:https://github.com/huggingface/lighteval
[22]
simple-evals:https://github.com/openai/simple-evals
[23]
其他评估框架:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-evaluation
[24]
Meta Lingua:https://github.com/facebookresearch/lingua
[25]
Litgpt:https://github.com/Lightning-AI/litgpt
[26]
nanotron:https://github.com/huggingface/nanotron
[27]
DeepSpeed:https://github.com/deepspeedai/DeepSpeed
[28]
Megatron-LM:https://github.com/NVIDIA/Megatron-LM
[29]
orchtitan:https://github.com/pytorch/torchtitan
[30]
其他框架:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-training-frameworks
[31]
llm-inference-solutions:https://github.com/mani-kantap/llm-inference-solutions
[32]
SGLang:https://github.com/sgl-project/sglang
[33]
vLLM:https://github.com/vllm-project/vllm
[34]
llama.cpp:https://github.com/ggml-org/llama.cpp
[35]
ollama:https://github.com/ollama/ollama
[36]
TGI:https://huggingface.co/docs/text-generation-inference/en/index
[37]
TensorRT-LLM:https://github.com/NVIDIA/TensorRT-LLM
[38]
其他部署工具:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-inference
[39]
极棒的llm-apps:https://github.com/Shubhamsaboo/awesome-llm-apps
[40]
dspy:https://github.com/stanfordnlp/dspy
[41]
LangChain:https://github.com/langchain-ai/langchain
[42]
LlamaIndex:https://github.com/run-llama/llama\_index
[43]
更多应用:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-applications
[44]
Andrej Karpathy系列:https://www.youtube.com/@AndrejKarpathy
[45]
Umar Jamil系列:https://www.youtube.com/@umarjamilai
[46]
Alexander Rush系列:https://rush-nlp.com/projects/
[47]
llm-course:https://github.com/mlabonne/llm-course
[48]
UWaterloo CS 886:https://cs.uwaterloo.ca/~wenhuche/teaching/cs886/
[49]
CS25-Transformers United:https://web.stanford.edu/class/cs25/
[50]
ChatGPT提示工程:https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
[51]
Princeton:https://www.cs.princeton.edu/courses/archive/fall22/cos597G/
[52]
CS324 - 大型语言模型:https://stanford-cs324.github.io/winter2022/
[53]
GPT的状态:https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2
[54]
让我们从零开始构建GPT:从代码到实现:https://www.youtube.com/watch?v=kCc8FmEb1nY
[55]
minbpe:https://www.youtube.com/watch?v=zduSFxRajkE&t=1157s
[56]
femtoGPT:https://github.com/keyvank/femtoGPT
[57]
Neurips2022:https://nips.cc/virtual/2022/tutorial/55796
[58]
ICML2022-欢迎进入“巨型模型”时代:训练和服务更大模型的技术和系统:https://icml.cc/virtual/2022/tutorial/18440
[59]
60行NumPy代码实现GPT:https://jaykmody.com/blog/gpt-from-scratch/
[60]
Generative AI with LangChain:https://www.amazon.com/Generative-AI-LangChain-language-ChatGPT/dp/1835083463?\_encoding=UTF8&qid=1688968678&sr=8-1&linkCode=sl1&tag=benman10e-20&linkId=ea066981b332a675b6f3125387dba6c8&language=en\_US&ref\_=as\_li\_ss\_tl
[61]
Build a Large Language Model (From Scratch):https://www.manning.com/books/build-a-large-language-model-from-scratch
[62]
BUILD GPT:https://www.amazon.com/dp/9152799727?ref\_=cm\_sw\_r\_cp\_ud\_dp\_W3ZHCD6QWM3DPPC0ARTT\_1
[63]
Hands-On Large Language Models: Language Understanding and Generation:https://www.llm-book.com/
[64]
The Chinese Book for Large Language Models:http://aibox.ruc.edu.cn/zws/index.htm
[65]
为什么所有公开复现的GPT-3都失败了?:https://jingfengyang.github.io/gpt
[66]
指令调优的阶段性回顾:https://yaofu.notion.site/June-2023-A-Stage-Review-of-Instruction-Tuning-f59dbfc36e2d4e12a33443bd6b2012c2
[67]
LLM驱动的自主代理:https://lilianweng.github.io/posts/2023-06-23-agent/
[68]
为什么你应该致力于AI代理!:https://www.youtube.com/watch?v=fqVLjtvWgq8
[69]
谷歌:“我们没有护城河,OpenAI也没有”:https://semianalysis.com/2023/05/04/google-we-have-no-moat-and-neither/
[70]
AI竞争声明:https://petergabriel.com/news/ai-competition-statement/
[71]
提示工程:https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/
[72]
诺姆·乔姆斯基:ChatGPT的虚假承诺:https://www.cs.princeton.edu/courses/archive/fall22/cos597G/
[73]
ChatGPT有1750亿个参数吗?技术分析:https://orenleung.super.site/is-chatgpt-175-billion-parameters-technical-analysis
[74]
GPT是如何获得其能力的?追溯语言模型的涌现能力来源:https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc1
[75]
开放预训练变换器:https://www.youtube.com/watch?v=p9IxoSkvZ-M&t=4s
[76]
大型语言模型中的扩展、涌现与推理:https://docs.google.com/presentation/d/1EUV7W7X\_w0BDrscDhPg7lMGzJCkeaPkGCJ3bN8dluXc/edit?pli=1&resourcekey=0-7Nz5A7y8JozyVrnDtcEKJA#slide=id.g16197112905\_0\_0
[77]
其他:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#miscellaneous
[78]
Emergent Mind:https://www.emergentmind.com/
[79]
主要LLM + 数据可用性:https://docs.google.com/spreadsheets/d/1bmpDdLZxvTCleLGVPgzoMTQ0iDP2-7v7QziPrzPdHyM/edit?gid=0#gid=0
[80]
500+最佳AI工具:https://vaulted-polonium-23c.notion.site/500-Best-AI-Tools-e954b36bf688404ababf74a13f98d126
[81]
Cursor:https://www.cursor.com/ja
[82]
EasyEdit: https://github.com/zjunlp/EasyEdit