Qwen又开源Think模型,这次成功登顶开源Top1,比肩Gemini-2.5 pro

技术

大家好,我是刘聪NLP。

终于不是凌晨开源了,Qwen这把当了人,不枉我一直提建议哈,主要是年纪大,真熬不住了。

又开了Qwen3-235B-A22B-Thinking-2507,纯推理模型

picture.image

这次Qwen开源周,三连发,strong~

picture.image

22号,开源了非think模型 - Qwen3-235B-A22B-Instruct-2507(介绍) ,抛弃混合推理模型,将在非推理上提到到极致,解决了一些人(比如我)对非推理模型的需求。

23号,开源了Coder模型 - Qwen3-Coder-480B-A35B-Instruct(实测),效果炸裂,完全挤进第一梯队,我也是第一时间实测,效果真不错,同时还配套了类Claude Code的Qwen Code工具,生态也同时拉满。

然后今天25号,又开源了Qwen3-235B-A22B-Thinking-2507,推理模型,效果直接登顶,不仅是开源Top1,而且甚至超过闭源Gemini2.5 Pro等。

参数跟之前的Qwen3-235B-A22B是一致的,

  • 总参数数量,235B,激活 22B,非嵌入参数数量234B
  • 层数,94
  • 注意力头数量(GQA),Q 为 64 个,KV 为 4 个
  • 专家数量128,激活专家数量:8
  • 上下文长度262144

HF地址:https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507

MS地址: https://www.modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507

详细榜单指标:

picture.image

下面是官方的使用指南;

  • 输出仅包含 ,无 , 在聊天模板中
  • 建议使用Temperature=0.6 、 TopP=0.95 、 TopK=20 和 MinP=0 参数,使用presence_penalty范围0 到 2 之间,但较高的值偶尔可能会导致语言混合,并略微降低模型性能。
  • 测试使用标准格式,例如:数学问题,在提示中包含“Please reason step by step, and put your final answer within \boxed{}.”;多项选择题,在提示中添加“Please show your choice in the answer field with only the choice letter, e.g., "answer": "C".”。
  • 多轮对话中,历史内容中不用带有思考内容,Jinja2 聊天模板已经自带

说实话,最近Qwen3 Coder、Kimi K2都好评如潮,不是纸面的强,是大家反馈很好,那么Claude是不是有危机感了,然后也不知道OpenAI的GPT5弄好没。

现在就等DeepSeek V4 & R2了。

HF趋势榜Qwen占前两个,Kimi K2第三紧随其后,国产开源,真是越来越好了,猛追国外闭源!

picture.image

PS:都看到这里,来个点赞在看关注 吧。 您的支持是我坚持的最大动力!

欢迎多多关注公众号「刘聪NLP」,加入交流群,交个朋友吧,一起学习,一起进步!

0
0
0
0
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论