DeepSeek发布DeepGEMM重大更新:MegaMoE融合算子与FP4精度支持
DeepSeek 发布 DeepGEMM 重大更新:Mega MoE 融合算子与 FP4 精度支持

4 月 16 日,DeepSeek 开源了其高性能 CUDA 算子库 DeepGEMM 的重大更新(PR #304),新增 Mega MoE 融合算子、FP8×FP4 GEMM、FP4 Indexer、PDL 支持等,同时在 JIT 编译速度和 MoE GEMM 性能上做了显著优化。
DeepGEMM 目前 6.3k star、861 fork,是专为现代大模型(尤其是 DeepSeek V3/R1 系列的 MoE 架构)设计的底层算子库,支持 NVIDIA SM90(Hopper)和 SM100(Blackwell)架构。
Mega MoE:把整个 MoE 层融成一个核函数
这次更新的核心是 Mega MoE——一个将 MoE 前向传播的多个阶段融合为单一 mega-kernel 的技术。
传统 MoE 推理的计算流程是分阶段的:先做 EP(Expert Parallelism)dispatch 把 token 分发到对应专家,每个专家独立做 linear1 → SwiGLU → linear2,最后 combine 汇总结果。每个阶段之间有同步点,GPU 的计算单元和 NVLink 通信带宽无法充分重叠。
Mega MoE 的做法是把 dispatch、linear1(FP8×FP4)、SwiGLU、linear2(FP8×FP4)、combine 全部融合到一个核函数里,让 NVLink 通信和 Tensor Core 计算在时间上重叠。这类似于 GPU kernel fusion 的经典思路,但应用范围更大——不是融合两三个算子,而是融合整个 MoE 层。
实现上有个技术前提:需要多进程启动 + 对称内存(Symmetric Memory)。多个 GPU 通过 symmetric buffer 共享数据,每个 rank 的 expert 权重预转换到 FP4 布局,运行时直接从 symmetric buffer 读取输入、写入输出,避免显式通信同步。
目前的限制:仅支持 FP8×FP4 MoE(activation FP8、weight FP4),EP ≤ 8 已测试,需要 PyTorch ≥ 2.9。
FP4 精度支持
除了 Mega MoE 之外,DeepGEMM 新增了 FP4 相关的完整支持:
- FP8×FP4 GEMM:activation FP8、weight FP4 的通用矩阵乘法,FP4 权重使用 UE8M0 缩放因子打包格式(4 个 UE8M0 打包进一个 int32)。这意味着 MoE 模型的专家权重可以量化到 4-bit,显存占用减半。
- FP4 Indexer:基于 MQA logits 的专家选择(scoring kernel)也支持 FP4 精度,配合 larger MTP(Multi-Token Prediction)支持。
- 权重预转换工具:
transform_weights_for_mega_moe()接口将 FP4 权重转换为 Mega MoE 所需的内存布局。
从 FP8 到 FP4,意味着在 H800 上单卡能塞下更多专家,或者在同等模型规模下减少 GPU 卡数。对 DeepSeek V3 这种 671B 参数、256 个路由专家的 MoE 架构,4-bit 权重量化的工程价值非常直接。
其他更新
- PDL(Programmatic Dependent Launch):一种减少 kernel launch 开销的技术,对高频调用的小 kernel 有意义。
- GEMM 启发式重构 + A/B 交换优化:让 MoE GEMM 性能显著提升。
- JIT 编译加速:首次运行时的编译时间缩短。
- DeepEPv2 MoE GEMM 布局:兼容 DeepSeek 的 EP 通信库 DeepEPv2。
- 代码量:PR #304 改动 12,135 行新增 / 3,253 行删除,涉及 109 个文件。
定位与影响
DeepGEMM 的定位很清晰:不是一个通用 BLAS 库,而是专为 MoE 大模型的训练和推理优化的专用算子集合。它的设计理念是"轻量 + JIT"——安装时不需要编译,运行时按需即时编译,根据实际 shape 自动选择最优 kernel 配置。
从 DeepSeek 的工程路线看,他们一直在垂直整合 MoE 推理的每一层:DeepEP 做跨卡通信,DeepGEMM 做单卡计算,Mega MoE 把两者通过 symmetric memory 和 kernel fusion 打通。这是一个完整的 MoE 推理栈。
性能数据方面,README 中标注"性能对比稍后发布",此前 DeepGEMM 在 H800 上已达到 1550 TFLOPS。Mega MoE 在减少阶段间同步开销、重叠通信与计算之后,实际提升幅度还需要等官方 benchmark。
对社区来说,这个更新的直接价值在于:如果你在做 MoE 模型的推理优化(不管是 DeepSeek 架构还是类似的 expert-parallel 路线),DeepGEMM 提供了一个可以参考甚至直接使用的 kernel 级实现。MIT 协议,无附加限制。
- 鸿海 Q4 利润不及预期,给 AI 硬件热泼了一盆冷水3/16/2026
- 据路透:华虹旗下华力微电子拟量产 7 纳米,华虹或成中国第二家 7nm 代工厂3/16/2026
- OpenAI 发布 GPT-5.4 mini 与 nano:小模型加速冲刺3/17/2026
- 据报道,微软搁置 Windows 11 多项 Copilot 系统级整合计划3/16/2026
- 《华盛顿邮报》把 AI 用到订阅定价上,媒体的个性化收费又往前走了一步3/17/2026
- iOS 26.4 RC 发布:Apple Music 有 AI 歌单,Podcasts 支持视频3/18/2026
- Google 把 Stitch 升级成 AI 原生设计画布3/19/2026
- ChatGPT App 的模型切换入口,突然变得很难找3/17/2026
- Firefox 149 内置免费 VPN:50GB 月流量,首批限四国3/19/2026
- 椰树集团相关公司招标 50 台人形机器人剥椰子,产线开始提具体指标了3/19/2026
- Google AI Studio 升级全栈 vibe coding:Antigravity 代理来了3/20/2026
- 中国加大对 Meta 收购 Manus 审查:高管限制离境,审查升至国家层面3/18/2026
- DLSS 5 引发的争议:老黄说批评者完全错误3/19/2026
- 欧盟推去衣AI禁令:3月26日表决,执法难在哪3/19/2026
- OpenAI 收购 Astral:Python 工具链收编加速3/19/2026
- MiniMax 发布 M2.7:国内首个公开的模型自我进化方案3/18/2026
- 营收涨三倍,宇树科技冲刺科创板3/20/2026
- 小米三款大模型齐发:MiMo-V2-Pro、Omni、TTS 完整解读3/19/2026
- 英伟达把 DLSS 5 说清楚了:输入只有 2D 帧和运动矢量3/21/2026
- 谷歌 Gemini Mac 版内测:桌面端补课正式开始3/20/2026
- Kimi 员工指称 MiniMax 沿用其 Office Skill 代码始末3/19/2026
- Anthropic 超 8 万用户调研:81% 认为 AI 正兑现预期3/19/2026
- 小米推理模型 MiMo-V2-Pro 上线:智能指数 49,榜单排第 103/18/2026
- Google 测试改写搜索结果网页标题,网站对标题的控制权又退了一步3/20/2026
- Claude Code 上线 Channels:用 Telegram 和 Discord 操控本地编程任务3/20/2026
- 多地试点一人公司:免费公寓+办公空间,能否激活个体创新?3/19/2026
- Hugging Face 最大开源仓库快被 AI 垃圾 PR 淹没了3/19/2026
- 短视频内容标注,准备进入统一规则阶段3/21/2026
- 爱泼斯坦案幸存者起诉 Google:AI 搜索放大了数据泄露的伤害3/27/2026
- 苹果把 WWDC 2026 定在 6 月 8 日,AI 与开发者工具会是重点3/23/2026