小米 MiMo-V2.5 公测:4.3 小时从零写完编译器,Token 效率领先竞品

小米正式发布 MiMo-V2.5 系列大模型并开启公测。最直观的 demo 来自代码生成领域:MiMo-V2.5-Pro 用 4.3 小时(672 次工具调用)从零写了一个完整的 SysY 编译器(Rust 实现),233 个测试全部通过。

SysY 是南京大学编译原理课的教学语言,涵盖词法分析、语法树构建、Koopa IR 中间代码生成、RISC-V 后端和性能优化。完整实现通常需要数周的开发时间。

MiMo-V2.5-Pro 编译器开发进度

编译过程分为四个阶段推进:

  • Phase 1:脚手架与 AST 构建 → 首次编译成功,pass rate 59%
  • Phase 2:Koopa IR 代码生成 → 110/110 IR 测试全部通过
  • Phase 3:RISC-V 后端实现 → 含一次回归重构
  • Phase 4:性能优化 → 233/233 完美分数

基准测试表现

在主流代码智能体基准上,MiMo-V2.5-Pro 的表现与第一梯队模型基本持平:

基准MiMo-V2.5-ProGPT-5.4Claude Opus 4.6
SWE-bench Pro57.257.757.3
Terminal-Bench 2.068.475.165.4
MiMo Coding Bench73.767.877.1
FrontierSWE (avg rank)#3.4-#2.0

Token 效率

在 ClawEval 基准上,MiMo-V2.5(no tools)的 pass^3 达到 63.8%。在 scatter plot 上更能说明问题的维度是 token 效率:单条轨迹平均 token 消耗比 Claude Opus 4.6 和 GPT-5.4 少 40%-60%,同时 pass^3 保持在 60% 以上。

对实际使用 AI 编程工具的开发者来说,这意味着在同等结果质量下,API 费用可以降低近一半。这种效率优势在长程任务(需要多轮工具调用的大型项目)中会被进一步放大。

在 General Agent 基准上,MiMo-V2.5 同样保持竞争力:GDPVal-AA 1581(no tools)、τ3-bench 72.9%、ClawEval pass^3 63.8%。多模态理解方面,VideoMME 87.7、MMMU-Pro 77.9。

两个型号

MiMo-V2.5 系列分为 Pro 和标准版两个型号:

  • Pro 版:专注长程、高复杂度 Agent 任务——深度推理、主 Agent 决策、大型代码库开发。支持代码和文本两种模态,速度 60-80 tokens/s。
  • 标准版:覆盖绝大部分 Agent 场景——办公生产力、数据分析、时延敏感任务。额外支持图像、视频和语音,速度 100-150 tokens/s,价格便宜约 60%。

两个型号都支持 1M token 上下文窗口。

定价

V2.5 对计费方案做了调整:Token Plan 不再区分上下文窗口倍率,新增夜间 8 折和连续包月折扣。

MiMo-V2.5(标准版)MiMo-V2.5-Pro
输入(≤256K)$0.4/M tokens$1.0/M tokens
输出(≤256K)$2.0/M tokens$3.0/M tokens
输入(256K-1M)$0.8/M tokens$2.0/M tokens
输出(256K-1M)$4.0/M tokens$6.0/M tokens

开源

MiMo-V2.5 全系列模型已确认将于近期开源。对开发者社区而言,这意味着可以直接部署和微调,小米在 Agent 能力和 Token 效率上的技术路线也将接受更广泛的检验。

来源:小米 MiMo 官方公众号

相关推荐