卷疯了!超越DeepSeek v3,阿里发布新一代MoE版Qwen2.5-Max,网友热议:有人能请中国休息一下吗?

大模型向量数据库机器学习

🍹 Insight Daily 🪺

Aitrainee | 公众号:AI进修生

Hi,这里是Aitrainee,欢迎阅读本期新文章。

picture.image

这波开源AI的进展真是太疯狂了!就在DeepSeek R1引发市场地震的同时,阿里通义千问又扔下一颗重磅炸弹:Qwen2.5-Max。

picture.image

关于AGI的路径,我们似乎都太着急了。 一直以来,大家觉得把模型和数据规模不断堆大,就能离AGI更近。但真实的情况是,我们对超大规模模型的训练,其实知之甚少。 今天的Qwen2.5-Max是一次对超大规模MoE模型的探索。 这个基于MoE架构的大模型通过海量数据预训练和精选的SFT、RLHF方法进行后训练,使用超过20万亿token的预训练数据。 从数据看,很亮眼。Arena-Hard得分89.4,领先DeepSeek V3的85.5和GPT-4o的77.9。MMLU-Pro、GPQA-Diamond等多个测试中都表现出色。 它在Arena-Hard、LiveBench等多个关键指标上全面超越了DeepSeek V3,并与顶级闭源模型展开正面竞争。

picture.image

然后是Qwen2.5-Max的基座模型,成绩单很亮眼。 MMLU 87.9分,超过DeepSeek V3的87.1分和Llama 3.1的85.2分。 C-Eval达到92.2分,领先所有对手。GSM8K更是拿下94.5分的高分,比DeepSeek V3高出5个百分点。

picture.image

开源阵营,不再是简单的追赶,而是在推动整个行业的技术边界。DeepSeek和Qwen的连续突破,正在重塑AI领域的竞争格局。 现在,Qwen2.5-Max已经开放使用了。 想体验很简单:可以直接去Qwen Chat对话,支持artifacts和搜索功能。还有图像和视频生成。

picture.image

我让他生成一个视频

你觉得咋样 ...

这里还有个qwen-max详情视频,奉上:

想用API也不难,注册阿里云账号,开通大模型服务,创建密钥就行。 最贴心的是,API完全兼容OpenAI的接口。如果你熟悉OpenAI,几乎不需要学习新东西。 代码示例很直观:导入OpenAI包,设置base_url指向阿里云,其他用法和OpenAI完全一致。


          
from openai import OpenAI
          
import os
          

          
client = OpenAI(
          
    api_key=os.getenv("API_KEY"),
          
    base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
          
)
          

          
completion = client.chat.completions.create(
          
    model="qwen-max-2025-01-25",
          
    messages=[
          
      {'role': 'system', 'content': 'You are a helpful assistant.'},
          
      {'role': 'user', 'content': 'Which number is larger, 9.11 or 9.8?'}
          
    ]
          
)
          

          
print(completion.choices[0].message)
          

      

Qwen团队在文末表明,他们目标很明确:不只是追求更大的模型(数据规模和模型参数提升),除了在 pretraining 的 scaling 继续探索外,还将大力投入强化学习的 scaling,要实现超越人类的智能,探索AI的未知之境。

经济学人的这篇报道很有意思。"Uncomfortably close"(不舒服的接近),配上后视镜中的龙形象,传递了一个微妙的信息:中国AI的发展确实让人惊讶。

picture.image

网友们热议:有人能请中国休息一下吗?发布新的强大模型的速度太快了。。哈哈 。。

picture.image

picture.image

picture.image

另外,有网友表示,Qwen2.5-Max用一个简单的提示词就生成了一个完整的3D物理动画系统,包含球体旋转、碰撞检测等复杂功能。

社区反响来看,"qwenpressive"这个词很贴切。

picture.image

看来中国团队确实在"mega cooking",期待他们下一步真的能把超球体(hyper sphere)也一次性搞定!

部署也极其简单:

开发者现在可以在 ai-gradio 上使用 Qwen2.5-Max

几行代码就能搭建一个完整的开发环境。

安装命令:


        
 
 
 
 
 
 
          
pip install --upgrade "ai-gradio[qwen]"
      

示例代码:


        
 
 
 
 
 
 
          
import gradio as gr   
import ai_gradio     
  
gr.load(  
    name='qwen:qwen-max-0125',  
    src=ai_gradio.registry,  
).launch()
      

Demo:https://huggingface.co/spaces/Qwen/Qwen2.5-Max-Demo

网页聊天:https://chat.qwenlm.ai/

🌟 知音难求,自我修 炼亦艰, 抓住前沿技术的机遇,与我们一起成为创新的超级个体 (把握AIGC时代的个人力量)。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
基于 Ray 的大模型离线推理
大模型离线推理,是指在具有数十亿或数万亿参数的大规模模型上进行分布式推理的过程。相较于常规模型推理,在模型切分、数据处理和数据流、提升 GPU 利用率方面面临了很大挑战。本次分享将介绍如何利用 Ray 及云原生优势助力大模型离线推理。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论