大模型到底需要消耗多少GPU显存?公式和工具全都有

大模型

如何计算大模型到底需要多少显存,是常常被问起的问题,笔者在《探秘大模型应用开发》中有过详细的推算,详见: 一文探秘LLM应用开发(12)-模型部署与推理(大模型相关参数计算及性能分析) ,通过文章可以清楚知道模型大小和显存占用的关系及计算方法。

现从实用角度再介绍一个简单公式和一个工具方便大家工作中使用。

1)估算公式(该公式来自于Sam Stoelinga简化[1])

picture.image

符号描述
M用千兆字节 (GB) 表示的 GPU 内存
P模型中的参数数量。例如,一个 7B 模型有 7 亿参数。
4B4 字节,即每个参数使用的字节数
324 字节中有 32 位
Q加载模型时应使用的位数,例如 16 位、8 位或 4 位。
1.2表示在 GPU 内存中加载额外内容的 20% 开销。

注意:该公式只是为了简化计算的估计,并未包含kvcache所需显存以及context大小的影响。

下面以运行16位精度的 Llama 70B 模型所需的 GPU 内存为例套用公式:

该模型有 700 亿参数。

M = (70 ∗ 4) / (32 / 16) ∗ 1.2 ≈ 168GB

由此可见,模型所需的 GPU 内存相当大。单个 80GB 的 A100 GPU 不足以满足需求,需要多个A100 GPU才能跑的起来。

如何进一步减少 Llama 2 70B 所需的 GPU 内存?

量化(Quantization)是一种减少内存占用的方法。通过将模型参数的精度从浮点数降低到低位表示(如 8 位整数),量化显著降低了内存和计算需求,使模型在资源有限的设备上更高效地部署。然而,这需要仔细管理以保持模型的性能,因为降低精度可能会影响输出的准确性。

通常认为 8 位量化能实现与 16 位精度相似的性能。而 4 位量化可能会显著影响模型的性能。

让我们再举一个 4 位量化的 Llama 2 70B 的例子:

M = (70 ∗ 4) / (32 / 4) ∗ 1.2 ≈ 42GB

这意味着你可以使用 2 个 24GB 的 L4 GPU 来运行这个模型。

2)评估工具:

picture.image

在此基础上,介绍一个能够自动计算显存能载入运行多大参数量模型的程序[2],它的输入如下:

  • 可用的 RAM(以 GB 为单位)
  • 估计操作系统 RAM 使用量(以 GB 为单位)
  • 上下文窗口大小(Token 数量)
  • 量化级别(Quantization level,每个参数的比特数)

计算过程:

  1. 将可用的 RAM 和操作系统的开销从 GB 转换为字节数。
  2. 通过将 Token 数量乘以 0.5 MB 并转换为字节数来计算上下文窗口所需的内存。
  3. 通过从总可用 RAM 中减去操作系统开销和上下文窗口内存,计算出可用的 RAM(以字节为单位)。
  4. 将量化级别从比特转换为每个参数的字节数。
  5. 通过将可用 RAM 除以每个参数的字节数来计算最大参数数量。
  6. 将结果从参数转换为以十亿为单位的参数数量进行显示。

确定上述输入后就能直接看到能够支持的最大参数量,如果计算出的最大参数量为负值,这表示上下文窗口大小对于可用的 RAM 来说太大了。在这种情况下,程序会显示一个错误信息,建议用户减少上下文窗口大小或增加可用的 RAM。

参考:

[1]https://www.substratus.ai/blog/calculating-gpu-memory-for-llm

[2]https://github.com/RayFernando1337/LLM-Calc

后台回复“进群”入群讨论。

picture.image

picture.image

橱窗有更多精选好书,欢迎光顾。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
IDC 大模型应用落地白皮书
大模型技术已深度融入业务实践,各企业期望其释放更大商业价值。 但大模型落地之路面临许多挑战和顾虑。 如何精准对接业务需求与发展蓝图,制定切实可行的大模型落地策略? IDC发布首个大模型应用策略与行动指南 一为您揭晓一
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论