DeepSeek-R1 + RooCline:极佳的强化学习AI编码代理!对标o1、蒸馏小模型本地部署。

大模型向量数据库云安全

🍹 Insight Daily 🪺

Aitrainee | 公众号:AI进修生

Hi,这里是Aitrainee,欢迎阅读本期新文章。

Deepseek R1正式发布。不是之前的Light版本,而是完整的R1。 性能与o1相当,还采用MIT开源协议,可以商用。现在能在Deepseek chat平台用,也提供API。

picture.image

模型分两个版本:主力R1,和面向研究的R1-Zero。 R1-Zero没有监督微调,直接RL,是一个未经过对话偏好对齐监督微调的版本,专门为研究人员或希望自行微调模型的人提供。 正式发布的R1还是用了SFT阶段。 R1是671B参数的大模型,激活参数只有37B,基于Deepseek V3训练。特别强化了思维链和推理能力。 现在Cline或者Roocline中可以直接使用R1了。API获取:https://platform.deepseek.com/usage

在Roocline中这样设置:

picture.image

Roocline是什么?看这里:

全新免费的 RooCline 超越了Cline v3.1 ?!更快、更智能、更出色的Cline分叉!(自主AI编程、0门槛)

作为测试, 我们用前面写过一篇文章《从0到1用AI做了个AI服务网站, 全程没写一行代码》,把开头的那个三合一提示词扔给他:

picture.image

让他创建一个Saas网站原型。那么提示词比较长,可以通过上面这篇文章获得。

picture.image

挺不错的,Saas框架、前后端、登陆注册、生图都还可以。 其次,这是它在Cline中速度、消耗表:

picture.image

youtube@WorldofAI

Deepseek官网直接Chat使用:

picture.image

此外,还有6个蒸馏小模型:Qwen 1.5B、7B,Llama 8B,Qwen 14B、32B,还有Llama 系列。 这些微调模型使用由DeepSeek-R1生成的样本进行训练,这大大降低了思考模型的构建门槛。

picture.image

这个操作很暖心,让不同需求的用户都能用上,从笔记本到服务器,都能找到合适的版本。

picture.image

测试结果超出预期,最强的是Llama-70B。GPQA Diamond 65.2,比Claude 3.5还高。编程上,LiveCodeBench 57.5,CodeForces 1633,几乎能和o1-mini比肩。 Ollama已经可以部署了,很快也能用VLLM 本地运行。

picture.image

R1价格很友好。API收费:输入每百万token 0.14美元(缓存命中),0.55美元(缓存未命中),输出2.19美元。对比o1:输入15美元,输出60美元。

picture.image

再说完全靠强化学习,不需要监督微调这一条:

用硬编码规则计算奖励,而非使用学习型的奖励模型。学习型奖励模型可能会被强化学习策略“利用”或“作弊”,导致优化的结果偏离预期目标。就像AlphaZero,从零开始学习,不靠模仿人类。

训练过程中有意思的发现:模型的思考时间会自然增长,这不是预设的,是自发形成的。模型逐渐学会为复杂问题花费更多时间进行思考,体现出类似于“自我反思”和“探索行为”的能力。

这是高级智能行为的一种表现,表明模型具备了更深层次的推理能力。这种未被明确编码的能力,属于智能的“涌现特性”(emergent behavior)。picture.image

picture.image

他们发明的GRPO比PPO更简单:去掉critic网络,用多个样本的平均奖励代替,简化了内存使用。这个方法,是他们2024年2月才提出的。

picture.image

DeepSeek-R1-Zero的测试结果很有意思。 只靠强化学习,在AIME 2024上得到71.0分,MATH-500达到95.9分。虽然比o1-0912略低,但差距并不大。 特别是在MATH-500上,R1-Zero的95.9分超过了o1-mini的90.0分。这说明纯RL训练的模型,也能掌握复杂的数学推理。 LiveCode Bench上得到73.3分,比o1-mini的60.0分高出不少。 这个结果很重要:它证明了,不需要大量标注数据,单靠强化学习,AI也能学会思考和推理。这可能会改变我们训练AI的方式。

picture.image

R1, 仅用几个月就达到了闭源大厂的水平,还提供了更实惠的价格。

最后,据官方所述,DeepSeek-R1还有几个地方需要提升,他们将继续努力:

通用能力上,函数调用、多轮对话、角色扮演和JSON输出,都不如V3版本。团队打算用长链推理来改进。

语言处理有点意思。现在主要针对中英文优化,其他语言容易混杂。比如用德语问,它可能用英语想,再用德语答。

提示词很敏感。少样本提示反而会影响性能,建议直接描述问题和输出格式,效果更好。

软件工程任务上,评估太慢影响了RL训练。计划用拒绝采样或异步评估来提速。

🌟 知音难求,自我修 炼亦艰, 抓住前沿技术的机遇,与我们一起成为创新的超级个体 (把握AIGC时代的个人力量)。

参考链接:
[1] https://chat.deepseek.com/

0
0
0
0
关于作者
相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论