8G显存一键训练,解锁Llama2隐藏能力!XTuner带你玩转大模型

picture.image

自 ChatGPT 发布以来,大模型的强大让人们看见了通用人工智能的曙光,各个科技大厂也纷纷开源自家的大语言模型。然而,大模型也意味着高昂的硬件成本,让不少平民玩家望而却步。

为了让大模型走入千家万户,赋能百业,上海人工智能实验室开发了 低成本大模型训练工具箱 XTuner ,旨在让大模型训练不再有门槛。通过 XTuner,最低只需 8GB 显存,就可以打造专属于你的 AI 助手。

https://github.com/InternLM/xtuner

(文末点击阅读原文可直达,欢迎体验)

X 种选择

picture.image

XTuner 提供了丰富的功能,上图中的各项功能都可以随意组合搭配。

除单点功能外,XTuner 还有以下三个黑科技,让开发者可以做到真正的“面向数据”工作。

高效的数据引擎

XTuner 适配了多个热门开源数据集格式,开发者如已有对应格式的数据集,可以直接使用,并 支持多种格式数据源的混合使用

  • Alpaca 格式,斯坦福大学开源数据集的格式,也是社区开源项目使用较多的一种格式
  • MOSS 格式,复旦大学开源指令微调数据集的格式,包含多轮对话和工具调用
  • Gunacao 格式,QLoRA 项目中所使用数据集的格式
  • OpenAI 格式,GPT-3.5-Turbo Finetune 接口要求的数据集格式
  • 更多数据集格式正在持续添加中......

            
pip install xtuner
            
# 训练混合了 Alpaca 格式和 Gunacao 格式的数据
            
xtuner train internlm_7b_qlora_alpaca_enzh_oasst1_e3
        

除了支持多种数据集格式外,XTuner 还针对大语言模型数据的特点,对各种数据集格式做了充分的解耦,相较于其他的 Finetune 开源项目,可以在不破坏 Chat 模型对话模版的情况下,对 Chat 模型进行 Finetune。


            
pip install xtuner
            
# 不破坏 Chat 模型对话模版,继续增量指令微调
            
xtuner train internlm_chat_7b_qlora_oasst1_e3
        

针对 GPU 计算特点,在显存允许的情况下,XTuner 支持将多条短数据拼接至模型最大输入长度,以此最大化 GPU 计算核心的利用率,可以显著提升训练速度。例如,在使用 oasst1 数据集微调 Llama2-7B 时, 数据拼接后的训练时长仅为普通训练的 50%

多种训练引擎

XTuner 首次尝试将 HuggingFace 与 OpenMMLab 进行结合,兼顾易用性和可配置性。支持使用 MMEngine Runner 和 HuggingFace Trainer 两种训练引擎,开发者如有深度定制化需求,可根据使用习惯灵活配置。


            
pip install xtuner
            

            
# 使用 MMEngine Runner 训练
            
xtuner train internlm_7b_qlora_oasst1_e3
            

            
# 使用 HugingFace Trainer 训练
            
xtuner train internlm_7b_qlora_oasst1_e3_hf
        

一键启动训练

XTuner 内置了增量预训练、单轮&多轮对话指令微调、工具类指令微调的标准化流程,让开发者只需聚焦于数据本身。

同时, XTuner 集成了 QLoRA、DeepSpeed 和 FSDP 等技术,提供各种尺寸模型在各种规格硬件下的训练解决方案,通过 XTuner 一键式启动训练,仅需 8GB 显存即可微调 7B 模型。


            
pip install 'xtuner[deepspeed]'
            
# 8G 显存微调 Llama2-7B
            
xtuner train llama2_7b_qlora_oasst1_512_e3 --deepspeed deepspeed_zero2
        

基于此,开发者可以专注于数据,其他环节放心交给 XTuner,抽出更多精力去奔向大模型的星辰大海!

X 种玩法

通过 XTuner,开发者可以给大模型添加插件,补足大模型欠缺的能力,甚至获得某些 ChatGPT 才有的技能。

XTuner 在 HuggingFace Hub 上提供了丰富的大模型插件,以下示例都可以在 Hub 中找到,欢迎大家下载体验!

ColoristLlama -- 你的专属调色师

通过在少量颜色注释数据集上对 Llama2-7B 进行指令微调训练,XTuner 成功解锁了其调色能力。最终得到的模型甚至可以像“你的甲方”一样反复修订!

picture.image

picture.image


            
pip install xtuner
            
xtuner chat hf meta-llama/Llama-2-7b-hf --adapter xtuner/Llama-2-7b-qlora-colorist --prompt-template colorist
        

Llama "联网" -- 更可靠及时的回答

借助 XTuner 及插件开源数据集,我们还解锁了 Llama 2、QWen 等开源模型的隐藏能力, 使其可以像 ChatGPT 一样联网搜索、调用工具,获得更可靠的回复。

picture.image

picture.image

除了上述介绍,我们还有更多有趣的其他模型插件,欢迎大家下载体验~

https://huggingface.co/xtuner

picture.image

X 种可能

XTuner Logo 的设计灵感来源于吃豆人,开发团队希望赋予 XTuner 更多的趣味属性,与开源社区一起“玩”转大模型,开发多种趣味十足的应用。你的任何 idea,都欢迎在 XTuner 的讨论区讨论,寻找与你志同道合的伙伴~

https://github.com/InternLM/xtuner/discussions

picture.image

(欢迎大家扫码加入交流群)

XTuner 团队也将持续低成本复刻社区热门项目,让更多的人可以参与到大模型的浪潮中来。

上海人工智能实验室围绕大语言模型,开源了一系列的工具箱,欢迎大家体验。

InternLM:即书生·浦语大模型,包含面向实用场景的 70 亿参数基础模型与对话模型 (InternLM-7B)。

https://github.com/InternLM/InternLM

LMDeploy:面向大模型部署的推理工具链,支持十亿到千亿参数语言模型的高效推理。推理性能领先开源社区。

https://github.com/InternLM/lmdeploy

OpenCompass:面向大模型评测的一站式、全方位评测平台,包含超过 40 个评测集、30 万评测题目。通过全自动分布式评测,保障开源模型性能可高效复现。

https://github.com/InternLM/opencompass

Lagent:基于大语言模型的轻量级、开源智能体(agent)框架,支持用户快速地将一个大语言模型转变为多种类型的智能体,并提供了一些典型工具为大语言模型赋能。

https://github.com/InternLM/lagent

picture.image

[与清北大佬共成长,海量好礼等你拿!新一轮 MMSIG 招募开启

2023-08-29

picture.image](https://mp.weixin.qq.com/s?__biz=MzI4MDcxNTY2MQ==&mid=2247519601&idx=1&sn=2f0e2d929ca1853d14e3170c37543669&chksm=ebb68593dcc10c857f2ba00478e14a4efdf8ce5f98a80244a8966547e18b4a8b6a4cb5e69aeb&scene=21#wechat_redirect)

[颠覆传统视频生成!基于大规模多模态扩散模型的文本到视频生成

2023-08-28

picture.image](https://mp.weixin.qq.com/s?__biz=MzI4MDcxNTY2MQ==&mid=2247519110&idx=1&sn=1180c6cac8c6801d32436d85b7a4795e&chksm=ebb68364dcc10a72c76cae6236964fd55bab926f7cbafea860156ae8b5fc28816be2a808294f&scene=21#wechat_redirect)

[超燃超嗨!OpenMMLab 首次网友面基大会回顾

2023-08-26

picture.image](https://mp.weixin.qq.com/s?__biz=MzI4MDcxNTY2MQ==&mid=2247519012&idx=1&sn=881d1ed0d8f25f0a8f988c322e89ea93&chksm=ebb683c6dcc10ad045e8c99111bbe1c566d16047d8da3f4bf03db2ec89455277ad7a9c00de16&scene=21#wechat_redirect)

picture.image

picture.image

picture.image

点击下方“阅读原文”直达 XTuner,欢迎体验

0
0
0
0
评论
未登录
暂无评论