阿里开源Qwen新模型,端午礼物来了~

大模型向量数据库机器学习

QwenLong-L1-32B,首个专为长上下文推理而以 RL 训练的长上下文语言推理模型(LRM)。

在七个长上下文DocQA基准测试中的实验结果表明,QwenLong-L1-32B优于旗舰型LRM,如OpenAI-o3-mini和Qwen3-235B-A22B,其性能可媲美Claude-3.7-Sonnet-Thinking,在当前最先进的LRM中表现领先。

picture.image

开源地址:https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1-32B

项目地址:https://github.com/Tongyi-Zhiwen/QwenLong-L1

还有数据集:https://huggingface.co/datasets/Tongyi-Zhiwen/DocQA-RL-1.6K

R1的含金量还是太高了~

picture.image

最大长度支持120k

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论