前言
在企业中部署大模型,相信各位都有 ”数据不出库 “ 的需求。
想用大模型的能力,又要保证数据安全 。
有 且只有一条出路:本地部署大模型 。
本地部署大模型,只需三步:下载模型--选推理引擎--启动服务
硬件要求
- • 显存 :至少需 2*24GB(如 RTX 3090/4090)以支持 32B 模型的运行
- • 内存 :建议 32GB 以上,若使用混合推理(GPU+CPU)则需更高内存
- • 存储 :模型文件约 20GB,需预留 30GB 以上的硬盘空间
一、下载模型
[ModelScope / Huggingface] 两个方式,任君二选一
1.1 ModelScope
安装包
 
 
 
 
   
pip install -U modelscope
代码下载
 
 
 
 
   
from modelscope import snapshot\_download   
model\_dir = snapshot\_download('Qwen/Qwen3-32B',cache\_dir='/NV/llm\_models/Qwen/Qwen3-32B')
1.2 Huggingface
安装包
 
 
 
 
   
pip install -U huggingface\_hub
添加环境变量,就不存在“需要科学”的问题
 
 
 
 
   
export HF\_ENDPOINT=https://hf-mirror.com
代码下载
 
 
 
 
   
# 代码下载  
from huggingface\_hub import hf\_hub\_download  
hf\_hub\_download(repo\_id="Qwen/Qwen3-32B",local\_dir='/NV/llm\_models/Qwen/Qwen3-32B')
或命令行下载
 
 
 
 
   
huggingface-cli download Qwen/Qwen3-32B --local-dir /NV/models\_hf/Qwen/QwQ-32B/
二、拉镜像
Docker-Hub官网 搜 SGLang,找到合适的镜像
默认为
 
 
 
 
   
docker pull lmsysorg/sglang:latest
三、启动模型
SGLang官方文档查看参数
Docker 启动命令如下:
 
 
 
 
   
docker run -d --gpus all \  
           --shm-size 32g \  
           -p 8001:8001 \  
           -v /NV/models\_hf/Qwen/Qwen3-32B:/model \  
           --ipc=host \  
           lmsysorg/sglang:latest \  
    python3 -m sglang.launch\_server \  
           --model /model \  
           --tp 4 \  
           --trust-remote-code \  
           --port 8001
基本参数
- • 启用显卡
- • 启用全部显卡:
--gpus all
- • 启用指定几张卡:
--gpus '"device=0,1,2,3"'
- • 后台运行:
-d
- • 初次运行:验证是否正常启动了服务,先不使用
-d
附加参数
- • 允许外部访问:
--host 0.0.0.0
- • 指定模型名称:--served-model-name Qwen3-32B
- • 开启最大上下文长度32768:
--json-model-override-args '{"rope\_scaling":{"rope\_type":"yarn","factor":4.0,"original\_max\_position\_embeddings":32768}}' --context-length 131072
四、使用Qwen3的三种方式🌐
4.1 Python调用本地Qwen3
 
 
 
 
   
import openai  
client =openai.client(base\_url="http://localhost:8001/v1",api\_key="EMPTY" )  
  
# Chat completion  
response=client.chat.completions.create(  
    model="default",  
    messages=[  
        {"role": "system","content": "You are a helpful AI assistant"},  
        {"role":"user","content":"简要介绍RAG是什么?"},  
    ],  
    temperature=0,  
    max\_tokens=64,  
)  
print(response)
4.2 HTTP 接口请求本地Qwen3
 
 
 
 
   
curl --location --request POST 'http://127.0.0.1:8001/v1/chat/completions' \  
--header 'Content-Type: application/json' \  
--data-raw '{  
    "model": "Qwen/Qwen3-32B",  
    "messages": [  
      {"role": "user", "content": "请用一句话介绍你自己"}  
    ],  
    "temperature": 0.7,  
    "max\_tokens": 512  
  }'
4.3 客户端使用本地Qwen3
以CherryStudio为例
4.4 查看推理速度
找到你的容器id
 
 
 
 
   
sudo docker ps   # 如0d5faf88f505
查看容器的日志
 
 
 
 
   
sudo docker logs 0d5faf88f505  # 如需实时查看,加个-f
以下是 逐行解析 启动命令的含义和作用,按需查看。
🐳 docker run 是什么?
这是启动一个 Docker 容器的命令。你可以把它理解为“运行一个已经打包好的应用环境”。
🔧 参数详解
✅ --gpus all
- • 启用所有 GPU(NVIDIA 显卡),让容器可以访问你的 CUDA 设备。
- • 需要安装好
nvidia-docker2。
✅ --shm-size 32g
- • 设置共享内存大小为 32GB。
- • 某些模型推理需要较大的共享内存空间,特别是大规模模型(如 DeepSeek-V3)。
- • 默认共享内存较小(64MB),不足以支持大模型推理。
✅ -p 8001:8001
- • 将宿主机(也就是你当前系统的)端口
8001映射到容器内部的8001端口。
- • 用于通过浏览器或 API 访问服务:
http://localhost:8001
✅ /NV/models\_hf/Qwen/Qwen3-32B:/model
- • 将宿主机上的 HuggingFace 缓存目录挂载到容器中的
/model。
- • 目的是:
- • 共享模型缓存,避免重复下载
- • 加快下次加载模型的速度
示例路径说明:
• 宿主机路径:
/NV/models\_hf/Qwen/Qwen3-32B→ 当前用户的HuggingFace 缓存目录
• 容器路径:
/model→ 容器中 root 用户的缓存路径
✅ --ipc=host
- • 使用宿主机的 IPC(进程间通信)命名空间。
- • 大模型推理时可能涉及多进程通信,使用这个参数可以避免 IPC 资源限制问题。
🖼️ lmsysorg/sglang:latest
这是你要运行的镜像名称和标签:
- •
lmsysorg/sglang: SGLang 的官方镜像
- •
latest: 最新版本的 tag
🚀 python3 -m sglang.launch\_server
这部分是容器启动后执行的命令,用来启动 SGLang 服务。
参数解释
--model /model
- • 加载 HuggingFace 上的模型
/model
- • 如果本地没有这个模型,SGLang 会自动从 HF 下载并缓存到之前挂载的目录中
--tp 4
- •
tp= Tensor Parallelism(张量并行)
- • 表示使用 4 个 GPU 并行推理(适用于多卡服务器)
- • 如果你只有 2 张卡,请设置为
--tp 2
--trust-remote-code
- • 允许加载远程代码(某些模型依赖自定义代码实现)
- • 如不加此参数,可能会报错:
This repository requires custom code
--port 8001
- • 指定服务监听的端口号(与前面的
-p对应)
📦 小结:整个命令的作用
| 功能 | 说明 | | 使用 GPU | 支持深度学习加速 | | 共享内存 32G | 支持大规模模型推理 | | 挂载模型缓存 | 避免重复下载模型 | | 映射端口 | 通过 REST API 访问模型服务 | | 启动 SGLang 服务 | 加载 Qwen3-32B 模型并提供推理接口 |
实践出真知,与君共勉。
下集预告
- 
• vllm部署本地Qwen3-32B大模型--实战教程(附实测) 
点击下方卡片 关注我们
  
📢【三连好运 福利拉满】📢  
  
🌟 若本日推送有收获:  
👍 点赞 → 小手一抖,bug没有  
📌 在看 → 一点扩散,知识璀璨  
📥 收藏 → 代码永驻,防止迷路  
🍻 分享 → 传递战友,功德+999  
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步  
  
💬 若有槽点想输出:  
👉 评论区已铺好红毯,等你来战!  
