一、
DeepSeek官网 :https://www.deepseek.com/
DeepSeek-R1论文链接 :https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek\_R1.pdf
DeepSeek-R1新闻发布 :https://api-docs.deepseek.com/zh-cn/news/news250120
DeepSeek HF链接 :https://huggingface.co/deepseek-ai
DeepSeek资料链接 :https://pan.quark.cn/s/1ae60157e7fa
DeepSeek从入门到精通 :https://pan.quark.cn/s/13a2166ffa2e
二、DeepSeek R1介绍
2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布高性能AI推理模型DeepSeek-R1,对标OpenAI的o1正式版。目前发布了两个版本:DeepSeek R1-Zero 和 DeepSeek R1。其中,DeepSeek-R1-Zero 是一个完全基于强化学习(RL)训练而无需监督微调(SFT)的模型。通过强化学习(RL),DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混合问题。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它基于 DeepSeek-V3 Base 作为基础模型,并结合强化学习技术,在无需监督数据的情况下显著提升推理能力,突破了传统模型的局限性。通过独创的GRPO 组相对策略优化方法,模型在训练过程中不断自我优化,从而具备强大的逻辑推理和深度上下文理解能力。上述两个版本都是671B 参数。
同时,也针对Qwen和LLama系列模型使用DeepSeek-R1生成的80万条样本(包括详细答案以及完整的推理链条)进行SFT蒸馏(Distill),推出了多款具备强大推理能力的小型模型。这些蒸馏版本在保留 R1 逻辑推理能力的同时,大幅降低了推理计算成本,使其更加适合个人用户和企业的私有化部署需求。
- DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
- DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置
model='deepseek-reasoner'
即可调用。
- DeepSeek 官网与 App 即日起同步更新上线。
DeepSeek-R1官方地址
:https://github.com/deepseek-ai/DeepSeek-R1
- 完整版(671B)
:需要至少 350GB 显存/内存,适合专业服务器部署
- 蒸馏版
:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。
蒸馏版与完整版的区别
特性
|
蒸馏版
|
完整版
| |
参数量
|
参数量较少(如 1.5B、7B),性能接近完整版但略有下降。
|
参数量较大(如 32B、70B),性能最强。
| |
硬件需求
|
显存和内存需求较低,适合低配硬件。
|
显存和内存需求较高,需高端硬件支持。
| |
适用场景
|
适合轻量级任务和资源有限的设备。
|
适合高精度任务和专业场景。
|
蒸馏版模型的特点
模型版本
|
参数量
|
特点
| |
deepseek-r1:1.5b
|
1.5B
|
轻量级模型,适合低配硬件,性能有限但运行速度快
| |
deepseek-r1:7b
|
7B
|
平衡型模型,适合大多数任务,性能较好且硬件需求适中。
| |
deepseek-r1:8b
|
8B
|
略高于 7B 模型,性能稍强,适合需要更高精度的场景。
| |
deepseek-r1:14b
|
14B
|
高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。
| |
deepseek-r1:32b
|
32B
|
专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。
| |
deepseek-r1:70b
|
70B
|
顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。
|
可根据下表配置选择使用自己的模型
模型名称
|
参数量
|
大小
|
VRAM (Approx.)
|
推荐 Mac 配置
|
推荐 Windows/Linux 配置
| |
deepseek-r1:1.5b
|
1.5B
|
1.1 GB
|
~2 GB
|
M2/M3 MacBook Air (8GB RAM+)
|
NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
| |
deepseek-r1:7b
|
7B
|
4.7 GB
|
~5 GB
|
M2/M3/M4 MacBook Pro (16GB RAM+)
|
NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
| |
deepseek-r1:8b
|
8B
|
4.9 GB
|
~6 GB
|
M2/M3/M4 MacBook Pro (16GB RAM+)
|
NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
| |
deepseek-r1:14b
|
14B
|
9.0 GB
|
~10 GB
|
M2/M3/M4 Pro MacBook Pro (32GB RAM+)
|
NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
| |
deepseek-r1:32b
|
32B
|
20 GB
|
~22 GB
|
M2 Max/Ultra Mac Studio
|
NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
| |
deepseek-r1:70b
|
70B
|
43 GB
|
~45 GB
|
M2 Ultra Mac Studio
|
NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
| |
deepseek-r1:1.5b-qwen-distill-q4_K_M
|
1.5B
|
1.1 GB
|
~2 GB
|
M2/M3 MacBook Air (8GB RAM+)
|
NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
| |
deepseek-r1:7b-qwen-distill-q4_K_M
|
7B
|
4.7 GB
|
~5 GB
|
M2/M3/M4 MacBook Pro (16GB RAM+)
|
NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
| |
deepseek-r1:8b-llama-distill-q4_K_M
|
8B
|
4.9 GB
|
~6 GB
|
M2/M3/M4 MacBook Pro (16GB RAM+)
|
NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
| |
deepseek-r1:14b-qwen-distill-q4_K_M
|
14B
|
9.0 GB
|
~10 GB
|
M2/M3/M4 Pro MacBook Pro (32GB RAM+)
|
NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
| |
deepseek-r1:32b-qwen-distill-q4_K_M
|
32B
|
20 GB
|
~22 GB
|
M2 Max/Ultra Mac Studio
|
NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
| |
deepseek-r1:70b-llama-distill-q4_K_M
|
70B
|
43 GB
|
~45 GB
|
M2 Ultra Mac Studio
|
NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
|
DeepSeek-R1的能力
通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。
三、DeepSeek R1使用
3.1 DeepSeek官方App与网页端
登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。
3.2 本地部署
前提:硬件要求
所以对于大多数个人用户,建议部署4bit量化模型:
-
7B/8B模型:8GB显存。
-
14B模型:16GB显存。
-
32B模型:22GB显存。
-
70B模型:48GB显存。
3.2.1 ollama
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
3.2.2 HuggingFace
HuggingFace 链接: https://huggingface.co/deepseek-ai
3.2.3 Xinference
3.3 第三方平台
秘塔搜索👍--https://metaso.cn
360纳米AI搜索👍--https://www.n.cn
硅基流动👍--https://cloud.siliconflow.cn
字节跳动火山引擎👍--https://console.volcengine.com/ark/region:ark+cn-beijing/experience
百度云千帆👍--https://console.bce.baidu.com/qianfan/modelcenter/model/
英伟达NIM👍--https://build.nvidia.com/deepseek-ai/deepseek-r1
Groq👍--https://groq.com/
Fireworks👍--https://fireworks.ai/models/fireworks/deepseek-r1
Chutes👍--https://chutes.ai
Github👍--https://github.com/marketplace/models/azureml-deepseek/DeepSeek-R1/playground
POE👍--https://poe.com/DeepSeek-R1
Cursor👍--https://cursor.sh/
Monica👍--https://monica.im/
Lambda👍-https://lambdalabs.com/
Cerebras👍--https://cerebras.ai
Perplexity👍--https://www.perplexity.ai
阿里云百炼👍--https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1
超算互联网👍--https://chat.scnet.cn/
CSGHub 👍--https://opencsg.com/
如果卡顿,可以通过硅基流动官方网站进行在线体验,也可以使用Cherry Studio或者Chatbox接入硅基流动API。
个人推荐使用POE,不过这个需要VPN。国内的话试试秘塔AI
四、API 及定价
DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。
五、开放的许可证和用户协议
参考文献: