昨日,OpenAI 正式推出了 GPT‑5。这一代把重点放回语言能力上,专注提升理解、推理和执行三项核心能力。
它不再只是“更大”的模型,而是像有头脑的助手,能更好地分析和处理复杂问题。
不是单一模型,而是多个模型协同的系统
GPT‑5 最大的不同不是参数数量,而是把原来的单体模型变成了多个子模块合作的体系
。表面上你仍然跟一个 ChatGPT 对话,但后台会由不同模型分担任务:
- 快速模型:响应速度快,负责大多数简单问答和日常对话。
- 推理模型:专门处理复杂推理、数学题和代码类问题。
- 智能路由:判断问题类型后,把任务分配给最合适的子模型。
举个例子,在对话里写上--「再仔细思考一下」,系统会自动切换到更有深度的推理模式。但用户是看不到切换过程的,而结果会更贴近需要的答案。
面向普通用户的版本分为免费、Plus 和 Pro 三种,来满足不同需求。
性能测试报告霸榜
在多个基准测试里,GPT‑5 都有明显提升,成绩处于领先位置。性能上的实测也很巨佬。
在编程vibe coding能力上,GPT‑5 的代码能力已达到行业顶尖水平。在 SWE‑Bench 等测试中的表现,略微超出一些主要竞争对手,准确率接近 75% 左右,比Claude高出1%(也算打败了)。
超长上下文,并能调整推理节奏
GPT‑5 的上下文容量大幅增加,理论上算可支持到 40 万 token(输入与输出一起算的)。约能处理272k
的输入加 128k
的输出。
此外,模型提还供了较多的可调参数,可以控制思考深度和输出风格:
- reasoning_effort:可以设置推理强度(从 minimal 到 high)。
- verbosity:控制回答是简短还是展开说明。
- 在处理较长任务时,模型会
分阶段汇报进度
,让执行过程更加的透明化。
多种型号按场景选用
GPT‑5 并非单一的选项,而是一个多门户的产品,用户可以根据场景挑选:
- gpt‑5:主力版,适合需要深入分析和多步推理的任务。
- gpt‑5‑mini:这个是轻量版,成本较低。
- gpt‑5‑nano:这个是
超低延迟版
,适合对速度要求极高的开发场景。
API 更加经济实惠且灵活
它与之前的版本相比,GPT‑5 在价格与使用策略上更具有吸引力:
- 输入 token 的定价约为 GPT‑4o 的二分之一,输出费用仍然大体相当。
- 输出中可能会产生用于内部推理的不可见 token,所以同样的回答将可能耗用更多 token(这就有点难过了)。
- 聊天类和批量查询场景,在短时间内重复使用相同输入 token 时,可享受高达 90% 的折扣(还算讲理)。
- 支持 token 缓存与细粒度控制,并可以按推理等级在成本与质量间做权衡(token 缓存,指的是遇到相同或高度相似的输入就直接复用结果,省去重复推理)。
结语:更像个靠谱的搭档,而非单纯工具
GPT‑5 的进步,不仅在能力上,更在行为上。可以把它当成一个能主动分步、能汇报进度、能按需要加深推理的伙伴,会更符合它的个性。
GPT‑5 会是一位更具责任感的伙伴,如果你把 GPT‑4o 看作一个反应快的助手,那么 GPT‑5 更像是一个会主动思考、能承担更复杂任务的同伴。你交代一件事,它会先做分析、列清单、再一步步去执行,直到把事情办妥为止。