LLM(十四)| DeepSeek-R1概况

大模型向量数据库云安全

picture.image

一、

DeepSeek相关资料参考

DeepSeek官网 :https://www.deepseek.com/

DeepSeek-R1论文链接 :https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek\_R1.pdf

DeepSeek-R1新闻发布 :https://api-docs.deepseek.com/zh-cn/news/news250120

DeepSeek HF链接 :https://huggingface.co/deepseek-ai

DeepSeek资料链接 :https://pan.quark.cn/s/1ae60157e7fa

DeepSeek从入门到精通 :https://pan.quark.cn/s/13a2166ffa2e

二、DeepSeek R1介绍

    2025年1月20日,杭州深度求索人工智能基础技术研究有限公司发布高性能AI推理模型DeepSeek-R1,对标OpenAI的o1正式版。目前发布了两个版本:DeepSeek R1-Zero 和 DeepSeek R1。其中,DeepSeek-R1-Zero 是一个完全基于强化学习(RL)训练而无需监督微调(SFT)的模型。通过强化学习(RL),DeepSeek-R1-Zero 自然地展现出许多强大且有趣的推理行为。然而,它也遇到了一些挑战,如可读性差和语言混合问题。为了解决这些问题并进一步提高推理性能,引入了DeepSeek-R1,它基于 DeepSeek-V3 Base 作为基础模型,并结合强化学习技术,在无需监督数据的情况下显著提升推理能力,突破了传统模型的局限性。通过独创的GRPO 组相对策略优化方法,模型在训练过程中不断自我优化,从而具备强大的逻辑推理和深度上下文理解能力。上述两个版本都是671B 参数。






    同时,也针对Qwen和LLama系列模型使用DeepSeek-R1生成的80万条样本(包括详细答案以及完整的推理链条)进行SFT蒸馏(Distill),推出了多款具备强大推理能力的小型模型。这些蒸馏版本在保留 R1 逻辑推理能力的同时,大幅降低了推理计算成本,使其更加适合个人用户和企业的私有化部署需求。
  • DeepSeek-R1 遵循 MIT License,允许用户通过蒸馏技术借助 R1 训练其他模型。
  • DeepSeek-R1 上线 API,对用户开放思维链输出,通过设置

model='deepseek-reasoner'

即可调用。

  • DeepSeek 官网与 App 即日起同步更新上线。

DeepSeek-R1官方地址

https://github.com/deepseek-ai/DeepSeek-R1

  • 完整版(671B)

:需要至少 350GB 显存/内存,适合专业服务器部署

picture.image

  • 蒸馏版

:基于开源模型(如 QWEN 和 LLAMA)微调,参数量从 1.5B 到 70B 不等,适合本地硬件部署。

picture.image

蒸馏版与完整版的区别

特性

|

蒸馏版

|

完整版

| |

参数量

|

参数量较少(如 1.5B、7B),性能接近完整版但略有下降。

|

参数量较大(如 32B、70B),性能最强。

| |

硬件需求

|

显存和内存需求较低,适合低配硬件。

|

显存和内存需求较高,需高端硬件支持。

| |

适用场景

|

适合轻量级任务和资源有限的设备。

|

适合高精度任务和专业场景。

|

蒸馏版模型的特点

模型版本

|

参数量

|

特点

| |

deepseek-r1:1.5b

|

1.5B

|

轻量级模型,适合低配硬件,性能有限但运行速度快

| |

deepseek-r1:7b

|

7B

|

平衡型模型,适合大多数任务,性能较好且硬件需求适中。

| |

deepseek-r1:8b

|

8B

|

略高于 7B 模型,性能稍强,适合需要更高精度的场景。

| |

deepseek-r1:14b

|

14B

|

高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。

| |

deepseek-r1:32b

|

32B

|

专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。

| |

deepseek-r1:70b

|

70B

|

顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。

|

可根据下表配置选择使用自己的模型

模型名称

|

参数量

|

大小

|

VRAM (Approx.)

|

推荐 Mac 配置

|

推荐 Windows/Linux 配置

| |

deepseek-r1:1.5b

|

1.5B

|

1.1 GB

|

~2 GB

|

M2/M3 MacBook Air (8GB RAM+)

|

NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)

| |

deepseek-r1:7b

|

7B

|

4.7 GB

|

~5 GB

|

M2/M3/M4 MacBook Pro (16GB RAM+)

|

NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)

| |

deepseek-r1:8b

|

8B

|

4.9 GB

|

~6 GB

|

M2/M3/M4 MacBook Pro (16GB RAM+)

|

NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)

| |

deepseek-r1:14b

|

14B

|

9.0 GB

|

~10 GB

|

M2/M3/M4 Pro MacBook Pro (32GB RAM+)

|

NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)

| |

deepseek-r1:32b

|

32B

|

20 GB

|

~22 GB

|

M2 Max/Ultra Mac Studio

|

NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)

| |

deepseek-r1:70b

|

70B

|

43 GB

|

~45 GB

|

M2 Ultra Mac Studio

|

NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

| |

deepseek-r1:1.5b-qwen-distill-q4_K_M

|

1.5B

|

1.1 GB

|

~2 GB

|

M2/M3 MacBook Air (8GB RAM+)

|

NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)

| |

deepseek-r1:7b-qwen-distill-q4_K_M

|

7B

|

4.7 GB

|

~5 GB

|

M2/M3/M4 MacBook Pro (16GB RAM+)

|

NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)

| |

deepseek-r1:8b-llama-distill-q4_K_M

|

8B

|

4.9 GB

|

~6 GB

|

M2/M3/M4 MacBook Pro (16GB RAM+)

|

NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)

| |

deepseek-r1:14b-qwen-distill-q4_K_M

|

14B

|

9.0 GB

|

~10 GB

|

M2/M3/M4 Pro MacBook Pro (32GB RAM+)

|

NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)

| |

deepseek-r1:32b-qwen-distill-q4_K_M

|

32B

|

20 GB

|

~22 GB

|

M2 Max/Ultra Mac Studio

|

NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)

| |

deepseek-r1:70b-llama-distill-q4_K_M

|

70B

|

43 GB

|

~45 GB

|

M2 Ultra Mac Studio

|

NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

|

DeepSeek-R1的能力

picture.image

 通过 DeepSeek-R1 的输出,蒸馏了 6 个小模型开源给社区,其中 32B 和 70B 模型在多项能力上实现了对标 OpenAI o1-mini 的效果。

picture.image

三、DeepSeek R1使用

3.1 DeepSeek官方App与网页端

  登录DeepSeek官网或官方App,打开“深度思考”模式,即可调用最新版 DeepSeek-R1 完成各类推理任务。

picture.image

3.2 本地部署

前提:硬件要求

所以对于大多数个人用户,建议部署4bit量化模型:

  • 7B/8B模型:8GB显存。

  • 14B模型:16GB显存。

  • 32B模型:22GB显存。

  • 70B模型:48GB显存。

3.2.1 ollama

DeepSeek-R1-Distill-Qwen-1.5B


        
            

          
 ollama run deepseek-r1:1.5b
 
        
      

DeepSeek-R1-Distill-Qwen-7B


        
            

          
 ollama run deepseek-r1:7b
 
        
      

DeepSeek-R1-Distill-Llama-8B


        
            

          
 ollama run deepseek-r1:8b
 
        
      

DeepSeek-R1-Distill-Qwen-14B


        
            

          
 ollama run deepseek-r1:14b
 
        
      

DeepSeek-R1-Distill-Qwen-32B


        
            

          
 ollama run deepseek-r1:32b
 
        
      

DeepSeek-R1-Distill-Llama-70B


        
            

          
 ollama run deepseek-r1:70b
 
        
      

3.2.2 HuggingFace

HuggingFace 链接: https://huggingface.co/deepseek-ai

picture.image

3.2.3 Xinference

picture.image

3.3 第三方平台

秘塔搜索👍--https://metaso.cn

360纳米AI搜索👍--https://www.n.cn

硅基流动👍--https://cloud.siliconflow.cn

字节跳动火山引擎👍--https://console.volcengine.com/ark/region:ark+cn-beijing/experience

百度云千帆👍--https://console.bce.baidu.com/qianfan/modelcenter/model/

英伟达NIM👍--https://build.nvidia.com/deepseek-ai/deepseek-r1

Groq👍--https://groq.com/

Fireworks👍--https://fireworks.ai/models/fireworks/deepseek-r1

Chutes👍--https://chutes.ai

Github👍--https://github.com/marketplace/models/azureml-deepseek/DeepSeek-R1/playground

POE👍--https://poe.com/DeepSeek-R1

Cursor👍--https://cursor.sh/

Monica👍--https://monica.im/

Lambda👍-https://lambdalabs.com/

Cerebras👍--https://cerebras.ai

Perplexity👍--https://www.perplexity.ai

阿里云百炼👍--https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1

超算互联网👍--https://chat.scnet.cn/

CSGHub 👍--https://opencsg.com/

如果卡顿,可以通过硅基流动官方网站进行在线体验,也可以使用Cherry Studio或者Chatbox接入硅基流动API。

个人推荐使用POE,不过这个需要VPN。国内的话试试秘塔AI

四、API 及定价

  DeepSeek-R1 API 服务定价为每百万输入 tokens 1 元(缓存命中)/ 4 元(缓存未命中),每百万输出 tokens 16 元。

picture.image

picture.image

五、开放的许可证和用户协议

picture.image

参考文献:

[1] https://mp.weixin.qq.com/s/njkbsizu7S6mSOdlEU5RmQ

[2] https://mp.weixin.qq.com/s/5SZVRAdaUv45tMkAjTMcQA

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
VikingDB:大规模云原生向量数据库的前沿实践与应用
本次演讲将重点介绍 VikingDB 解决各类应用中极限性能、规模、精度问题上的探索实践,并通过落地的案例向听众介绍如何在多模态信息检索、RAG 与知识库等领域进行合理的技术选型和规划。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论