小米正式开源 MiMo-V2.5 系列模型:MIT 协议、1M 上下文、Agent 能力开源第一

小米正式开源 MiMo-V2.5 系列模型,采用 MIT 协议,支持免授权商业部署、持续训练和微调。该系列包含两款模型:MiMo-V2.5-Pro 专注于复杂 Agent 和代码任务,MiMo-V2.5 为原生全模态模型。两款模型均支持 1M token 上下文窗口。

Benchmark 对比分析

Benchmark Results

官方公布的 benchmark 对比表覆盖了通用 Agent 和编码 Agent 两大维度,与 GPT-5.4、Claude Opus 4.6、Gemini 3.1 Pro、DeepSeek V4 Pro、Kimi K2.6、GLM 5.1 等主流模型进行了横向对比。

通用 Agent 能力

  • GDPVal-AA (Elo):MiMo-V2.5-Pro 拿到 1581 分,开源模型中最高,但距离 GPT-5.4 的 1674 仍有差距。Claude Opus 4.6 以 1606 紧随其后。
  • t³-bench:MiMo-V2.5-Pro 与 GPT-5.4 并列 72.9,开源模型中领先。
  • ClawEval (pass³):Claude Opus 4.6 以 70.4 远超其他所有模型,MiMo-V2.5-Pro 为 63.8。多轮迭代代码审查场景下 Claude 的 agent 循环能力依然有明显优势。
  • Humanity's Last Exam:GPT-5.4 以 58.7 领跑,Kimi K2.6 的 54.0 是开源最高。MiMo-V2.5-Pro 的 48.0 在纯推理极限测试中属于中游水平。

编码 Agent 能力

  • SWE-bench Pro:Kimi K2.6 以 58.6 领先,MiMo-V2.5-Pro 的 57.2 与 GPT-5.4 (57.7) 接近。
  • SWE-bench Verified:Claude Opus 4.6 以 80.8 最高,DeepSeek V4 Pro 以 80.6 紧随其后,MiMo-V2.5-Pro 为 78.9。
  • Terminal-Bench 2.0:GPT-5.4 以 75.1 大幅领先,GLM 5.1 的 69.0 和 MiMo-V2.5-Pro 的 68.4 分列二三位。
  • FrontierSWE (Impl.):GPT-5.4 以 #1.9 夺冠,Claude Opus 4.6 #2.0,MiMo-V2.5-Pro #3.4 在开源模型中领先。

MiMo-V2.5 Details

总结

MiMo-V2.5-Pro 在 agent 场景的综合能力做到了开源第一梯队,多项 benchmark 在开源模型中排名第一。但距离 GPT-5.4 和 Claude Opus 4.6 在核心指标上仍有代差,尤其在纯推理极限(HLE)和多轮迭代代码审查(ClawEval)上差距较为明显。

MIT 协议加上 1M token 上下文窗口是 MiMo-V2.5 系列的核心卖点。对于需要本地部署长上下文 agent 的团队来说,这是目前开源选项中实用性最强的方案之一。

来源:Xiaomi MiMo (@XiaomiMiMo)

相关推荐