OpenAI 发布 GPT-5.4 mini 与 nano:小模型加速冲刺
2026年3月17日,OpenAI 正式推出 GPT-5.4 mini 与 GPT-5.4 nano,两款定位高吞吐、低时延的小模型。 这是继 GPT-5 mini 之后,OpenAI 再次更新小模型产品线。值得关注的是,新款 mini 在多个关键评测中已经逼近更大的 GPT-5.4,而 nano 则进一步把价格压到极低水平。

核心升级:性能接近大模型
GPT-5.4 mini 相较上一代 GPT-5 mini,在编码、推理、多模态理解与工具使用等维度上均有显著提升。官方数据显示,它的运行速度超过了 GPT-5 mini 的两倍。更重要的是,在多项关键评测中,GPT-5.4 mini 已经逼近 GPT-5.4:
| 评测 | GPT-5.4 | GPT-5.4 mini | GPT-5 mini |
|---|---|---|---|
| SWE-Bench Pro | 57.7% | 54.4% | 45.7% |
| OSWorld-Verified | 75.0% | 72.1% | 42.0% |
| GPQA Diamond | 93.0% | 88.0% | 81.6% |
差距已经很小。这意味着在很多场景下,使用 mini 模型的体验正在接近大模型,而成本和延迟却低得多。
GPT-5.4 nano:最小、最便宜
GPT-5.4 nano 是当前 GPT-5.4 系列中体积最小、价格最低的版本。它面向的是对速度和成本更敏感的场景:
- 分类任务
- 数据提取
- 排序
- 相对简单的代码辅助任务
官方建议将 nano 作为 subagent 使用——大模型负责规划和判断,小模型负责快速执行。这种分工模式在大模型 API 成本仍然较高的当下,有很强的实用价值。
价格与可用性
GPT-5.4 mini 已在 API、Codex 与 ChatGPT 全面上线:
- API 价格:$0.75/M 输入,$4.50/M 输出
- 上下文窗口:400k
- 支持文本与图像输入、工具调用、函数调用、网页搜索、文件搜索、计算机使用
GPT-5.4 nano 仅在 API 提供:
- API 价格:$0.20/M 输入,$1.25/M 输出
在 ChatGPT 端,GPT-5.4 mini 已向 Free 与 Go 用户开放,通过 "Thinking" 入口即可调用。其他用户则将其作为 GPT-5.4 Thinking 的限流备选方案。
小模型的价值正在重估
随着 mini 和 nano 能力逼近各自的大哥,大模型负责思考、小模型负责执行的分工模式正在变得可行。对开发者而言,用更低的成本换取足够强的性能,这个账越来越划算。
尤其是 Codex 平台已经支持 subagent 模式——GPT-5.4 负责整体规划和最终判断,GPT-5.4 mini 负责并行处理代码搜索、文件审查等子任务。这种架构的成本显著低于全部使用大模型,而效果并不会差太多。
来源:OpenAI
- 八家科技巨头签署反诈骗协议,平台反诈开始从单案协作走向跨平台联防3/16/2026
- 鸿海 Q4 利润不及预期,给 AI 硬件热泼了一盆冷水3/16/2026
- 据路透:华虹旗下华力微电子拟量产 7 纳米,华虹或成中国第二家 7nm 代工厂3/16/2026
- 据报道,微软搁置 Windows 11 多项 Copilot 系统级整合计划3/16/2026
- OpenAI 澄清:ChatGPT 广告暂未全球推广3/16/2026
- 《华盛顿邮报》把 AI 用到订阅定价上,媒体的个性化收费又往前走了一步3/17/2026
- ChatGPT App 的模型切换入口,突然变得很难找3/17/2026