QwQ-Max-Preview下周会开源

大模型机器学习数据库

今天凌晨,俊旸兄发x,说下周一定会开源,但现在正在进行更多的RL实验,所以最后开的模型有多强,还不知道,但一定会开源一些东西。

期待一手Qwen开源。

同时值得注意的一点是,现在qwen.ai上的QwQ-max-Preview模型的推理收益,应该更多来自于SFT过程,因为还没有充分进行RL。

QwQ-Max-Preview如果是在Qwen2.5-Max上训练的,那么也会是一个MoE模型。

因为这周太卷了,一直在跟DeepSeek的开源内容,还没来得及给大家实测,下周一定测!!!

最后,NLP工作站 4群 成立啦!欢迎入群交流!

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
字节跳动客户端性能优化最佳实践
在用户日益增长、需求不断迭代的背景下,如何保证 APP 发布的稳定性和用户良好的使用体验?本次分享将结合字节跳动内部应用的实践案例,介绍应用性能优化的更多方向,以及 APM 团队对应用性能监控建设的探索和思考。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论