慢慢学 AIGC
慢慢学 AIGC
开源向量数据库大模型机器学习
DeepGEMM 和曾经的屠龙少年一些往事
90
0
0
0
开源大模型向量数据库机器学习
DeepSeek MoE 架构演进和工程优化经验
219
0
0
0
开源大模型向量数据库机器学习
可能是全网第一个 FlashMLA 性能实测
88
0
0
0
AI大模型向量数据库机器学习
点击下方卡片,关注“慢慢学AIGC”前言前面几篇 DeepSeek R1 本地部署和测评文章:《DeepSeek 本地部署最佳实践(一):Ollama+Open WebUI + 蒸馏版》《DeepSeek 本地部署最佳实践(二):llama.cpp + Open WebUI 部署 unsloth 量化版模型》《DeepSeek 本地部署最佳实践(三):SGLang + 分布式推理部署满血版模型》《
296
0
0
0
AI大模型向量数据库云安全
本文为 DeepSeek 本地部署最佳实践系列文章的第一篇,主要介绍 DeepSeek 蒸馏版模型本地部署方法,基于 Ollama + Open WebUI 实现了类似 ChatGPT 的体验,支持联网搜索。
613
0
0
0
大模型大模型向量数据库机器学习
本文是 DeepSeek 本地部署最佳实践系列文章的第二篇,在前文基础上继续介绍如何在显存受限的 GPU 环境运行 Unsloth 量化版 DeepSeek R1 模型。
1057
0
0
0
大模型向量数据库大模型容器
本文为 DeepSeek 本地部署最佳实践系列文章的完结篇,只关注 R1 671B 满血版模型部署,建议有条件的读者阅读。
3296
0
0
0
云原生大模型向量数据库机器学习
本文将介绍本地部署 DeepSeek 的三种不同类型模型:满血版,1.58 bit 量化版和蒸馏版(Qwen 1.5B),使用同一代码生成问题进行效果评测,最后给出实际部署建议。
3483
2
0
1
AI大模型向量数据库机器学习
点击下方 卡片 ,关注“ 慢慢学AIGC ”前言人工智能随着 DeepSeek R1 的发布迈出了重要的一步,这是一款开源模型,在高级推理任务上对 OpenAI 的 o1 发起了挑战。 DeepSeek R1 采用了一种创新技术——群体相对策略优化(Group Relative Policy Optimisation,GRPO),并结合多阶段训练方法,在数学、编程和通用推理等领域树立了新的基准
433
0
0
0
AI大模型向量数据库机器学习
介绍了 DeepSeek R1 推理模型构建过程和一些相关工作
143
0
0
0
AI大模型向量数据库机器学习
点击下方 卡片 ,关注“ 慢慢学AIGC ”内容来源:DeepSeek 论文作者:DeepSeek-AI项目页面 : https://github.com/deepseek-ai/Janus摘要在本研究中,我们提出了 Janus-Pro ,这是之前工作 Janus 的高级版本。具体而言,Janus-Pro 引入了以下改进:优化的训练策略 ;扩展的训练数据 ;更大模型规模的扩展 。通过这些改进,
251
0
0
0
AI大模型向量数据库机器学习
AI 成本控制领域的领导地位、真实的训练成本、闭源模型利润率如何影响英伟达 H100 定价飙升、补贴推理定价策略、出口管制政策与 MLA 解析
120
0
0
0
AI大模型向量数据库云通信
点击下方 卡片 ,关注“ 慢慢学AIGC ”内容来源: DeepSeek R1 论文摘要我们介绍了我们第一代推理模型:DeepSeek-R1-Zero 和 DeepSeek-R1。DeepSeek-R1-Zero 是一个通过大规模强化学习(RL)训练的模型,在没有监督微调(SFT)作为初步步骤的情况下,展现出了显著的推理能力。通过强化学习,DeepSeek-R1-Zero 自然地形成了许多强大而有
546
0
1
0
AI大模型数据安全机器学习
随着我们继续推动 AI 可以实现的边界,保持警惕并致力于保护这些卓越技术背后的数据的完整性和隐私至关重要。
180
0
0
0
AI向量数据库大模型机器学习
老黄 PPT 里的数字陷阱,你注意到了吗?
1784
0
0
0
AI大模型向量数据库机器学习
在本文中,我们分享了在部署和维护配备 10,000 个 PCIe A100 GPU 的 Fire-Flyer 2 AI-HPC 系统过程中获得的经验和见解。
174
0
0
0
AI大模型机器学习GPU
训练性能、用户体验、可用性、英伟达、AMD、通用矩阵乘法(GEMM)、注意力机制、网络连接、InfiniBand(无限带宽)、Spectrum-X以太网、RoCEv2以太网、SHARP(可扩展分层聚合和减少协议)、总拥有成本
661
0
0
0
AI大模型向量数据库机器学习
O1 Pro 架构、推断训练基础设施、Orion 和 Claude 3.5 Opus “失败”原因
166
0
0
0
AI大模型容器GPU
随着性能更强的 7B 至 70B 模型的出现,在本地机器上运行大语言模型的推理正变得越来越流行。现代 AI 软件真的需要 GPU 吗?本文将为你释疑。
664
0
0
0
AI大模型向量数据库机器学习
本文提出了一种 8 位浮点(FP8)格式,包括两种编码方式:E4M3 以及 E5M2。在各种图像和语言任务中验证了 FP8 格式的有效性,其效果与 16 位训练所达到的结果质量相当。
259
0
0
0