Distilling ODE Solvers of Diffusion Models into Smaller Steps(CVPR 2024):把扩散求解器蒸馏到更少步数
会议:CVPR 2024
发表日期:2023/09/28
资料加入日期:2026-04-15
一句话结论
这篇工作把“少步采样”推进得更系统:它不是重新发明采样器,而是把已有 ODE solver 的轨迹知识蒸馏到更小步数版本里。
问题定义
扩散模型采样慢,核心原因之一是 function evaluations 太多。纯数值求解器在极少步数时难以忠实跟踪真实轨迹,而传统蒸馏方法又往往训练代价高。论文要解决的正是这两类路线之间的断层。
方法概述
作者提出 D-ODE solvers,把 ODE solver 的公式结构与蒸馏结合起来:不是端到端重训一个新生成器,而是在已有 solver 上加入少量可学习调整,让小步数版本从大步数 solver 的轨迹中学习。这样既保留 solver 家族的可解释性,又压低蒸馏成本。
关键发现
- 它把 topics/diffusion-models 中的效率叙事进一步从“模型蒸馏”细化到“求解器蒸馏”。
- 它和 sources/2026-04-15-accelerating-diffusion-sampling-optimized-time-steps 很互补:一个优化步点分配,一个直接蒸馏少步求解器。
- 它说明 diffusion 提速不只靠 backbone 或缓存,数值轨迹本身也是重要优化对象。
局限或疑问
- 它仍主要围绕采样效率,不直接回答复杂编辑、多模态控制或视频场景中的泛化。
- 即便蒸馏开销显著低于重训,它仍不是完全零成本路线。
- 不同 solver 家族之间的可迁移性与稳定收益,还需要更大范围比较。
原始链接
- https://arxiv.org/abs/2309.16421
- https://arxiv.org/pdf/2309.16421
相关页面
- topics/image-generation
- topics/diffusion-models
- sources/2026-04-15-accelerating-diffusion-sampling-optimized-time-steps
备注
它在本库中的价值,是把 diffusion efficiency 主线再向数值分析那一层推进了一步,提醒我们“少步扩散”本质上也是 solver design 问题。