狂揽23.9k stars!超棒的开源LLM资源列表

大模型向量数据库机器学习

picture.image

🔥 大型语言模型(LLM)已经席卷了NLP社区、AI社区和全世界。以下是关于大型语言模型的精选资源列表,特别是与ChatGPT相关的内容。它还包含LLM训练框架、LLM部署工具、LLM相关的课程和教程以及所有公开可用的LLM检查点和API。

picture.image

这个开源库已经在GitHub上收获了 239,000个星标 ,见证了它的火爆程度。

话不多说,让我们一起来看看吧。

热门LLM项目

TinyZero[1] - DeepSeek R1-Zero的干净、简约、可访问的重现•open-r1[2] - DeepSeek-R1的完全开源重现•DeepSeek-R1[3] - DeepSeek的第一代推理模型•Qwen2.5-Max[4] - 探索大规模MoE模型的智能•OpenAI o3-mini[5] - 推动具有成本效益的推理前沿•DeepSeek-V3[6] - 首个开源GPT-4o级别模型

目录

Awesome-LLM里程碑论文其他论文LLM排行榜开放LLMLLM数据LLM评估LLM训练框架LLM推理LLM应用LLM书籍关于LLM的伟大思想其他

里程碑论文

里程碑论文[7]

其他论文

注意
如果你对LLM领域感兴趣,可以参考上面列出的里程碑论文,帮助你探索其历史和前沿状态。然而,LLM的每个方向都提供了独特的见解和贡献,这对理解该领域整体非常重要。有关各个子领域的详细论文列表,请参考以下链接:

其他论文[8]

LLM排行榜

Chatbot Arena Leaderboard[9] - 一个大型语言模型(LLM)基准平台,提供匿名、随机化的对战,采用众包方式。•LiveBench[10] - 一个具有挑战性、无污染的LLM基准。•Open LLM Leaderboard[11] - 旨在跟踪、排名并评估LLM和聊天机器人,随着它们的发布。•AlpacaEval[12] - 使用Nous基准套件的指令跟随语言模型自动评估器。

其他排行榜[13]

开放LLM[14]

DeepSeek阿里巴巴MetaMistral AI谷歌苹果微软AllenAIxAICohere01-ai百川NvidiaBLOOM智谱AIOpenBMBRWKV基金会ElutherAIStability AIBigCodeDataBricks上海AI实验室

LLM数据

参考资料:LLMDataHub[15]

IBM data-prep-kit[16] - 用于高效处理非结构化数据的开源工具包,具有预构建模块和本地到集群的可扩展性。•Datatrove[17] - 通过提供一组平台无关、可定制的管道处理模块,将数据处理从脚本化的混乱中解脱出来。•Dingo[18] - Dingo:一款全面的数据质量评估工具•FastDatasets[19] - 一个强大的工具,用于为大型语言模型创建高质量的训练数据集

LLM评估

lm-evaluation-harness[20] - 用于少量样本评估语言模型的框架。•lighteval[21] - 一个轻量级LLM评估套件,Hugging Face在内部使用。•simple-evals[22] - OpenAI提供的评估工具。•其他评估框架[23]

LLM训练框架

Meta Lingua[24] - 一个精简、高效、易于修改的代码库,用于研究LLM。•Litgpt[25] - 20多种高性能LLM,具有预训练、微调和大规模部署的方案。•nanotron[26] - 最简化的大型语言模型3D并行训练。•DeepSpeed[27] - DeepSpeed是一个深度学习优化库,使分布式训练和推理变得简单、高效和有效。•Megatron-LM[28] - 进行大规模变换器模型训练的持续研究。•torchtitan[29] - 一个用于大规模模型训练的本地PyTorch库。•其他框架[30]

LLM推理

参考资料:llm-inference-solutions[31]

SGLang[32] - SGLang是一个快速的服务框架,用于大型语言模型和视觉语言模型。•vLLM[33] - 一个高吞吐量且内存高效的LLM推理和服务引擎。•llama.cpp[34] - 使用C/C++进行LLM推理。•ollama[35] - 启动Llama 3、Mistral、Gemma及其他大型语言模型。•TGI[36] - 一个部署和服务大型语言模型(LLMs)的工具包。•TensorRT-LLM[37] - Nvidia的LLM推理框架•其他部署工具[38]

LLM应用

参考资料:极棒的llm-apps[39]

dspy[40] - DSPy:用于编程——而非提示——基础模型的框架。•LangChain[41] — 一个流行的Python/JavaScript库,用于链式连接语言模型提示序列。•LlamaIndex[42] — 一个Python库,用于为LLM应用增强数据。•更多应用[43]

LLM教程和课程

Andrej Karpathy系列[44] - 我最喜欢的!•Umar Jamil系列[45] - 高质量的教育视频,不容错过。•Alexander Rush系列[46] - 高质量的教育材料,不容错过。•llm-course[47] - 进入大型语言模型(LLMs)的课程,包含路线图和Colab笔记本。•UWaterloo CS 886[48] - 基础模型的最新进展。•CS25-Transformers United[49]ChatGPT提示工程[50]Princeton[51]: 理解大型语言模型CS324 - 大型语言模型[52]GPT的状态[53]让我们从零开始构建GPT:从代码到实现[54]minbpe[55] - 用于LLM分词的字节对编码(BPE)算法的最小化、干净的代码。•femtoGPT[56] - 用Rust实现的最小化生成预训练变换器。•Neurips2022[57]-基础模型的基础稳健性ICML2022-欢迎进入“巨型模型”时代:训练和服务更大模型的技术和系统[58]60行NumPy代码实现GPT[59]

LLM书籍

Generative AI with LangChain[60] : 使用Python、ChatGPT和其他LLM构建大型语言模型(LLM)应用——附带一个GitHub仓库,展示了很多功能。

Build a Large Language Model (From Scratch)[61] - 构建你自己的工作LLM的指南。

BUILD GPT[62]: HOW AI WORKS - 解释如何从零开始编码生成预训练变换器(GPT)。

Hands-On Large Language Models: Language Understanding and Generation[63] - 探索大型语言模型的世界,本书包含超过275个自制图示!

The Chinese Book for Large Language Models[64] - 一本基于大型语言模型调查的入门LLM教科书。

关于LLM的伟大思想

•为什么所有公开复现的GPT-3都失败了?[65] •指令调优的阶段性回顾[66] •LLM驱动的自主代理[67] •为什么你应该致力于AI代理![68] •谷歌:“我们没有护城河,OpenAI也没有”[69] •AI竞争声明[70] •提示工程[71] •诺姆·乔姆斯基:ChatGPT的虚假承诺[72] •ChatGPT有1750亿个参数吗?技术分析[73] •GPT是如何获得其能力的?追溯语言模型的涌现能力来源[74] •开放预训练变换器[75] •大型语言模型中的扩展、涌现与推理[76]

其他[77]

Emergent Mind[78] - 最新的AI新闻,由GPT-4策划和解释。•ShareGPT - 一键分享你最疯狂的ChatGPT对话。•主要LLM + 数据可用性[79]500+最佳AI工具[80]Cohere Summarize Beta - 介绍Cohere Summarize Beta:一个新的文本总结端点•chatgpt-wrapper - ChatGPT Wrapper是一个开源的非官方Python API和CLI,可以让你与ChatGPT互动。•Cursor[81] - 使用强大的AI写作、编辑和聊天你的代码。•AutoGPT - 一个展示GPT-4语言模型能力的实验性开源应用。•OpenAGI - 当LLM遇到领域专家。•EasyEdit[82] - 一个易于使用的框架,用于编辑大型语言模型。•chatgpt-shroud - 一个Chrome扩展程序,用于OpenAI的ChatGPT,通过轻松隐藏和显示聊天历史来增强用户隐私。适合屏幕共享时的隐私保护。

贡献

这是一个活跃的代码库,我们欢迎您的贡献!

如果我不确定某些拉取请求是否对LLM有帮助,我将保持它们的开放状态,你可以通过添加👍来投票支持它们。

往期精彩内容回顾

6个开源的最佳本地运行大语言模型(LLM)工具

使用 LangChain 与 MCP集成

AI时代,你需要知道的AI Agents都在这里了

更多信息

山行AI希望本文对你有所帮助,由笔者整理自:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#miscellaneous,感谢点赞、转发!

References

[1] TinyZero:https://github.com/Jiayi-Pan/TinyZero
[2]open-r1:https://github.com/huggingface/open-r1
[3]DeepSeek-R1:https://github.com/deepseek-ai/DeepSeek-R1
[4]Qwen2.5-Max:https://qwenlm.github.io/blog/qwen2.5-max/
[5]OpenAI o3-mini:https://openai.com/index/openai-o3-mini/
[6]DeepSeek-V3:https://github.com/deepseek-ai/DeepSeek-V3
[7]里程碑论文:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#milestone-papers
[8]其他论文:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#other-papers
[9]Chatbot Arena Leaderboard:https://huggingface.co/spaces/lmarena-ai/chatbot-arena-leaderboard
[10]LiveBench:https://livebench.ai/#/
[11]Open LLM Leaderboard:https://huggingface.co/spaces/open-llm-leaderboard/open\_llm\_leaderboard
[12]AlpacaEval:https://tatsu-lab.github.io/alpaca\_eval/
[13]其他排行榜:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-leaderboard
[14]开放LLM:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#open-llm
[15]LLMDataHub:https://github.com/Zjh-819/LLMDataHub
[16]IBM data-prep-kit:https://github.com/data-prep-kit/data-prep-kit
[17]Datatrove:https://github.com/huggingface/datatrove
[18]Dingo:https://github.com/DataEval/dingo
[19]FastDatasets:https://github.com/ZhuLinsen/FastDatasets
[20]lm-evaluation-harness:https://github.com/EleutherAI/lm-evaluation-harness
[21]lighteval:https://github.com/huggingface/lighteval
[22]simple-evals:https://github.com/openai/simple-evals
[23]其他评估框架:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-evaluation
[24]Meta Lingua:https://github.com/facebookresearch/lingua
[25]Litgpt:https://github.com/Lightning-AI/litgpt
[26]nanotron:https://github.com/huggingface/nanotron
[27]DeepSpeed:https://github.com/deepspeedai/DeepSpeed
[28]Megatron-LM:https://github.com/NVIDIA/Megatron-LM
[29]orchtitan:https://github.com/pytorch/torchtitan
[30]其他框架:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-training-frameworks
[31]llm-inference-solutions:https://github.com/mani-kantap/llm-inference-solutions
[32]SGLang:https://github.com/sgl-project/sglang
[33]vLLM:https://github.com/vllm-project/vllm
[34]llama.cpp:https://github.com/ggml-org/llama.cpp
[35]ollama:https://github.com/ollama/ollama
[36]TGI:https://huggingface.co/docs/text-generation-inference/en/index
[37]TensorRT-LLM:https://github.com/NVIDIA/TensorRT-LLM
[38]其他部署工具:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-inference
[39]极棒的llm-apps:https://github.com/Shubhamsaboo/awesome-llm-apps
[40]dspy:https://github.com/stanfordnlp/dspy
[41]LangChain:https://github.com/langchain-ai/langchain
[42]LlamaIndex:https://github.com/run-llama/llama\_index
[43]更多应用:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#llm-applications
[44]Andrej Karpathy系列:https://www.youtube.com/@AndrejKarpathy
[45]Umar Jamil系列:https://www.youtube.com/@umarjamilai
[46]Alexander Rush系列:https://rush-nlp.com/projects/
[47]llm-course:https://github.com/mlabonne/llm-course
[48]UWaterloo CS 886:https://cs.uwaterloo.ca/~wenhuche/teaching/cs886/
[49]CS25-Transformers United:https://web.stanford.edu/class/cs25/
[50]ChatGPT提示工程:https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/
[51]Princeton:https://www.cs.princeton.edu/courses/archive/fall22/cos597G/
[52]CS324 - 大型语言模型:https://stanford-cs324.github.io/winter2022/
[53]GPT的状态:https://build.microsoft.com/en-US/sessions/db3f4859-cd30-4445-a0cd-553c3304f8e2
[54]让我们从零开始构建GPT:从代码到实现:https://www.youtube.com/watch?v=kCc8FmEb1nY
[55]minbpe:https://www.youtube.com/watch?v=zduSFxRajkE&t=1157s
[56]femtoGPT:https://github.com/keyvank/femtoGPT
[57]Neurips2022:https://nips.cc/virtual/2022/tutorial/55796
[58]ICML2022-欢迎进入“巨型模型”时代:训练和服务更大模型的技术和系统:https://icml.cc/virtual/2022/tutorial/18440
[59]60行NumPy代码实现GPT:https://jaykmody.com/blog/gpt-from-scratch/
[60]Generative AI with LangChain:https://www.amazon.com/Generative-AI-LangChain-language-ChatGPT/dp/1835083463?\_encoding=UTF8&qid=1688968678&sr=8-1&linkCode=sl1&tag=benman10e-20&linkId=ea066981b332a675b6f3125387dba6c8&language=en\_US&ref\_=as\_li\_ss\_tl
[61]Build a Large Language Model (From Scratch):https://www.manning.com/books/build-a-large-language-model-from-scratch
[62]BUILD GPT:https://www.amazon.com/dp/9152799727?ref\_=cm\_sw\_r\_cp\_ud\_dp\_W3ZHCD6QWM3DPPC0ARTT\_1
[63]Hands-On Large Language Models: Language Understanding and Generation:https://www.llm-book.com/
[64]The Chinese Book for Large Language Models:http://aibox.ruc.edu.cn/zws/index.htm
[65]为什么所有公开复现的GPT-3都失败了?:https://jingfengyang.github.io/gpt
[66]指令调优的阶段性回顾:https://yaofu.notion.site/June-2023-A-Stage-Review-of-Instruction-Tuning-f59dbfc36e2d4e12a33443bd6b2012c2
[67]LLM驱动的自主代理:https://lilianweng.github.io/posts/2023-06-23-agent/
[68]为什么你应该致力于AI代理!:https://www.youtube.com/watch?v=fqVLjtvWgq8
[69]谷歌:“我们没有护城河,OpenAI也没有”:https://semianalysis.com/2023/05/04/google-we-have-no-moat-and-neither/
[70]AI竞争声明:https://petergabriel.com/news/ai-competition-statement/
[71]提示工程:https://lilianweng.github.io/posts/2023-03-15-prompt-engineering/
[72]诺姆·乔姆斯基:ChatGPT的虚假承诺:https://www.cs.princeton.edu/courses/archive/fall22/cos597G/
[73]ChatGPT有1750亿个参数吗?技术分析:https://orenleung.super.site/is-chatgpt-175-billion-parameters-technical-analysis
[74]GPT是如何获得其能力的?追溯语言模型的涌现能力来源:https://yaofu.notion.site/How-does-GPT-Obtain-its-Ability-Tracing-Emergent-Abilities-of-Language-Models-to-their-Sources-b9a57ac0fcf74f30a1ab9e3e36fa1dc1
[75]开放预训练变换器:https://www.youtube.com/watch?v=p9IxoSkvZ-M&t=4s
[76]大型语言模型中的扩展、涌现与推理:https://docs.google.com/presentation/d/1EUV7W7X\_w0BDrscDhPg7lMGzJCkeaPkGCJ3bN8dluXc/edit?pli=1&resourcekey=0-7Nz5A7y8JozyVrnDtcEKJA#slide=id.g16197112905\_0\_0
[77]其他:https://github.com/Hannibal046/Awesome-LLM?tab=readme-ov-file#miscellaneous
[78]Emergent Mind:https://www.emergentmind.com/
[79]主要LLM + 数据可用性:https://docs.google.com/spreadsheets/d/1bmpDdLZxvTCleLGVPgzoMTQ0iDP2-7v7QziPrzPdHyM/edit?gid=0#gid=0
[80]500+最佳AI工具:https://vaulted-polonium-23c.notion.site/500-Best-AI-Tools-e954b36bf688404ababf74a13f98d126
[81]Cursor:https://www.cursor.com/ja
[82]EasyEdit: https://github.com/zjunlp/EasyEdit

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大模型解决方案白皮书;社交陪伴场景全流程落地指南
随着大模型技术持续突破,AI正加速重塑社交娱乐的形态与体验。其中,陪伴式聊天因用户黏性强、互动频次高,成为大模型商业化落地的关键赛道。随着模型能力跃升至万亿参数级,AI从工具属性正迈向情感交互生态,现象级产品的诞生条件逐渐成熟。 本白皮书聚焦AI陪伴聊天应用开发,面向“从何起步、如何落地”的新手困惑,系统拆解从需求定义到产品上线的关键流程。我们结合工程化实践路径,打造模块化知识体系与渐进式开发框架,帮助开发者在30天内完成从技术认知到产品原型的跃升,快速构建具备基础交互能力的Web或App应用,迈出大模型
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论