🍹 Insight Daily 🪺
Aitrainee | 公众号:AI进修生
Hi,这里是Aitrainee,欢迎阅读本期新文章。
这波开源AI的进展真是太疯狂了!就在DeepSeek R1引发市场地震的同时,阿里通义千问又扔下一颗重磅炸弹:Qwen2.5-Max。
关于AGI的路径,我们似乎都太着急了。 一直以来,大家觉得把模型和数据规模不断堆大,就能离AGI更近。但真实的情况是,我们对超大规模模型的训练,其实知之甚少。 今天的Qwen2.5-Max是一次对超大规模MoE模型的探索。 这个基于MoE架构的大模型通过海量数据预训练和精选的SFT、RLHF方法进行后训练,使用超过20万亿token的预训练数据。 从数据看,很亮眼。Arena-Hard得分89.4,领先DeepSeek V3的85.5和GPT-4o的77.9。MMLU-Pro、GPQA-Diamond等多个测试中都表现出色。 它在Arena-Hard、LiveBench等多个关键指标上全面超越了DeepSeek V3,并与顶级闭源模型展开正面竞争。
然后是Qwen2.5-Max的基座模型,成绩单很亮眼。 MMLU 87.9分,超过DeepSeek V3的87.1分和Llama 3.1的85.2分。 C-Eval达到92.2分,领先所有对手。GSM8K更是拿下94.5分的高分,比DeepSeek V3高出5个百分点。
开源阵营,不再是简单的追赶,而是在推动整个行业的技术边界。DeepSeek和Qwen的连续突破,正在重塑AI领域的竞争格局。 现在,Qwen2.5-Max已经开放使用了。 想体验很简单:可以直接去Qwen Chat对话,支持artifacts和搜索功能。还有图像和视频生成。
我让他生成一个视频
你觉得咋样 ...
这里还有个qwen-max详情视频,奉上:
想用API也不难,注册阿里云账号,开通大模型服务,创建密钥就行。 最贴心的是,API完全兼容OpenAI的接口。如果你熟悉OpenAI,几乎不需要学习新东西。 代码示例很直观:导入OpenAI包,设置base_url指向阿里云,其他用法和OpenAI完全一致。
from openai import OpenAI
import os
client = OpenAI(
api_key=os.getenv("API_KEY"),
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen-max-2025-01-25",
messages=[
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': 'Which number is larger, 9.11 or 9.8?'}
]
)
print(completion.choices[0].message)
Qwen团队在文末表明,他们目标很明确:不只是追求更大的模型(数据规模和模型参数提升),除了在 pretraining 的 scaling 继续探索外,还将大力投入强化学习的 scaling,要实现超越人类的智能,探索AI的未知之境。
经济学人的这篇报道很有意思。"Uncomfortably close"(不舒服的接近),配上后视镜中的龙形象,传递了一个微妙的信息:中国AI的发展确实让人惊讶。
网友们热议:有人能请中国休息一下吗?发布新的强大模型的速度太快了。。哈哈 。。
另外,有网友表示,Qwen2.5-Max用一个简单的提示词就生成了一个完整的3D物理动画系统,包含球体旋转、碰撞检测等复杂功能。
社区反响来看,"qwenpressive"这个词很贴切。
看来中国团队确实在"mega cooking",期待他们下一步真的能把超球体(hyper sphere)也一次性搞定!
部署也极其简单:
开发者现在可以在 ai-gradio 上使用 Qwen2.5-Max
几行代码就能搭建一个完整的开发环境。
安装命令:
pip install --upgrade "ai-gradio[qwen]"
示例代码:
import gradio as gr
import ai_gradio
gr.load(
name='qwen:qwen-max-0125',
src=ai_gradio.registry,
).launch()
Demo:https://huggingface.co/spaces/Qwen/Qwen2.5-Max-Demo
🌟 知音难求,自我修 炼亦艰, 抓住前沿技术的机遇,与我们一起成为创新的超级个体 (把握AIGC时代的个人力量)。