by Gary_Ren
踏入2025年,大模型厂商对其模型进行了调整,包括价格调整、产品结构调整等。
价格方面,市场竞争态势促使厂商优化价格策略。阿里云在2024年最后一天,宣布通义千问视觉理解大模型全线降价超80%。其中Qwen-VL-Plus直降81%,输入价格仅为¥1.5/百万tokens,创下全网最低价格。
产品结构方面,零一万物对其大模型产品进行了升级,Yi-Large、Yi-Medium、Yi-Medium-200k、Yi-Large-Rag、Yi-Large-Fc、Yi-Large-Turbo、Yi-Spark将升级为Yi-Lightning;Yi-Vision将升级为Yi-Vision-V2。同时,升级后的模型,价格发生较大降幅,最大降幅达到2400%,同时模型也不再支持200k和32k的上下文长度的内容。
一. 大模型推理价格
按照上下文长度划分,我们将模型分为3类:
1. 超长输出模型(上下文长度在1M以上)
1M以上上下文长度的模型有:Google的Gemini 1.5 Flash、Gemini 1.5 Flash-8B和Gemini 1.5 Pro,阿里的Qwen-turbo和Qwen-Long,智谱的GLM-4-Long ,以及MinIMax的MiniMax-Text-01。其中,阿里Qwen-Long模型,上下文长度达到10M。目前价格最贵的是Gemini 1.5 Pro,按照美元最新汇率($1.00=¥7.33),输入价格最高可达到¥18.33/百万tokens;最低的是阿里Qwen-turbo,输入价格¥0.3/百万tokens,不足Gemini 1.5 Pro的2%。
2. 高性价比模型(上下文长度在100K~1M之间)
100K以上长度的模型有38个,其中大部分厂商将长文本模型长度标准定在在128K左右。从价格上来看,近一半的模型,输入价格不足¥1.00/百万tokens。其中,最低的是百度ERNIE-Lite-Pro-128K,价格仅为¥0.20/百万tokens;价格最高的是阶跃星辰step-1-256k,输入价格达到¥95.00/百万tokens。
3. 极速推理模型(上下文长度100K以内)
100K以下的模型有43个,上下文长度主要以8K和32K为主。其中价格最贵的是百川Baichuan4,输入和输出价格均为¥100/百万tokens;价格最便宜的是百度Qianfan-Agent-Lite-8K,输入价格为¥2.00/百万tokens。
二. 大语言模型发展新态势
打破上下文长度枷锁,拓展应用边界
对于大语言模型来说,上下文长度直接限制了模型单次处理信息的能力。上下文长度决定了模型能够记忆和处理的信息量,进而影响其理解和生成文本的效果。较大的上下文虽然可以提高模型的准确性,但同时会增加计算资源的消耗,使用成本也会随之增加。
为此,一些模型厂商致力于突破现有上下文长度的限制,尝试将上下文长度提升至如 1M、10M 这样更高的量级,例如阿里、智谱和 MinIMax 等。其背后的驱动力是满足不断涌现的复杂业务需求,诸如对超大型企业知识库的智能检索与问答、大规模文本数据的深度分析挖掘等。
例如百度ERNIE 4.0 Turbo系列上下文长度从8K提高至128K,阿里Qwen-turbo系列从131K提高至1M,智谱AI也推出了支持1M的上下文长度的模型GLM-4-Long ,MinIMax在1月初发布新一代模型MiniMax-Text-01,可支持1M的上下文长度。
推进大语言模型轻量化,激发应用效能新活力 部分厂商积极推出轻量化模型。在当前大语言模型发展中,强化上下文能力成为重要方向,一些厂商也在积极部署具有特定优势的模型。例如,在追求模型高效运行的过程中,部分厂商致力于推出极速版模型,这类模型通过优化设计,如采用 8K 的上下文模型,有效提高了模型的反应速度。
阶跃星辰推出的 step - 2 - mini,便是基于新一代自研 Attention 架构 MFA 的极速大模型。它能够以极低成本达到和 step1 类似的效果,并且保持了更高的吞吐量和更短的响应时延,其上下文长度为 8k。
零一万物也对其大模型产品进行了全面调整。在上下文长度的设置上,去掉了 200k 和 32k 上下文长度的模型,仅保留 16K 上下文。这一举措是其在模型轻量化和性能优化方向上的探索,虽然与部分厂商强化上下文能力的做法看似不同,但本质上都是为了让模型在实际应用中更高效地运行。
此外,零一万物 CEO 李开复在专刊文章《the wired world in2025》中曾表示,动辄数十亿美元的算力投资和昂贵的推理成本正在侵蚀生成式 AI 的创新潜力。为了实现进一步的突破,大语言模型(LLM)亟需变得更轻量化、更高效、更实惠。他还提出,轻量化模型将在 2025 年涌现。
三. 大模型价格趋势
从大模型厂商的发展现状来看,有诸多因素制约着其价格策略,大幅降价不太可能实现。
一方面,大模型厂商前期在硬件采购、人力、营销等方面都投入了巨额资金。仅在英伟达芯片上,就有厂商斥资数亿打造万卡集群,而且在人力、营销等方面大厂也投入颇多。当下,如何实现商业化盈利成为他们面临的关键问题 ,在成本尚未收回且盈利压力大的情况下,大幅降价显然不符合其商业利益。
另一方面,国内大模型市场已基本形成竞争格局,阿里、百度、字节处于第一梯队,智谱、商汤、百川等属于第二梯队。这些产品因自身特性,如阿里的模型在电商领域的应用优势、百度在搜索相关技术上的积累、字节在内容创作方面的特色等,都拥有各自的忠实粉丝。这意味着单纯降价很难从其他平台吸引用户,打造可靠的产品才是关键**。**