几乎就在同一天,
两个国内著名大模型厂商DeepSeek与阿里通义千问组团开源了模型:
DeepSeek-V3-0324( 更美观的网页和游戏前端 )
,Qwen2.5-VL-32B-Instruct( 以小博大 ):
Qwen2.5-vl-32B模型
- 72B 对 VLM 来说太大?7B 不够强!那么可以使用32B 模型
- 响应更符合人类偏好
:调整输出样式以提供更详细、格式更好的答案,使其更符合人类偏好。
- 数学推理
:显著提高解决复杂数学问题的准确性。
- 细粒度图像理解与推理
:增强图像解析、内容识别、视觉逻辑推理等任务的准确性和细节分析。
Blog: https://qwenlm.github.io/blog/qwen2.5-vl-32b/
Qwen Chat: https://chat.qwen.ai
HF: https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct
ModelScope: https://modelscope.cn/models/Qwen/Qwen2.5-VL-32B-Instruct
DeepSeek-V3-0324模型
- DeepSeek是在昨晚悄悄开源的新版本V3模型的,此次最大的亮点是 编程能力 ,性能比肩Claude 3.7
- 前端 Web 开发 ,提高了代码的可执行性,更美观的网页和游戏前端
- 汉语写作能力 ,与 DeepSeek-R1 写作风格保持一致中长篇写作质量更高
- 函数调用, 改进提高了函数调用的准确性, 工具/MCP调用更加稳健
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324/tree/main
测试示例:https://github.com/KCORES/kcores-llm-arena/tree/main
MCP调用:https://x.com/localhost_4173/status/1904396718801932656
推荐阅读
- •
动手设计AI Agents:Coze版(编排、记忆、插件、workflow、协作)
- •
- •
RAG全景图:从RAG启蒙到高级RAG之36技,再到终章Agentic RAG!
- •
Agent到多模态Agent再到多模态Multi-Agents系统的发展与案例讲解(1.2万字,20+文献,27张图)
欢迎关注我的公众号“
PaperAgent
”,
每天一篇大模型(LLM)文章来锻炼我们的思维,简单的例子,不简单的方法,提升自己。