ArticleMetadataMain page

source · 2026-04-16

On Distillation of Guided Diffusion Models(CVPR 2023):把 classifier-free guided diffusion 蒸馏到极少步采样

On Distillation of Guided Diffusion Models(CVPR 2023):把 classifier-free guided diffusion 蒸馏到极少步采样

会议:CVPR 2023
发表日期:2022/10/06
资料加入日期:2026-04-16

一句话结论

这篇工作把 classifier-free guidance 的双模型推理开销压缩成可实际部署的极少步采样路线:先把条件/无条件组合行为蒸馏进单模型,再继续做 progressive distillation,把 guided diffusion 推到 1–4 步也还能保住较强生成质量。

问题定义

classifier-free guided diffusion 在高分辨率图像生成里很有效,但推理代价很高,因为每一步都要同时评估条件模型和无条件模型,而且整个去噪过程往往要重复几十到上百步。论文要解决的核心问题,就是如何在保留 guidance 效果的同时,把这种双重开销压缩到更少的采样步数与更低的单步成本。

方法概述

作者把提速拆成两层。第一层,先训练一个学生模型去拟合“条件模型 + 无条件模型”合成后的 guided 输出,让推理从双模型变成单模型。第二层,再对这个学生模型做 progressive distillation,把原来需要很多步的 diffusion 过程逐步压缩到极少步版本。这样既继承了 classifier-free guidance 的效果,也把 few-step diffusion 的路线直接接到了大规模 guided teacher 上。

关键发现

  • 它把 topics/diffusion-models 里的效率主线向前推进了一层:提速对象从 solver、time-step schedule、cache 扩展到了 guided teacher 本身。
  • 论文报告在 pixel-space diffusion 上可把采样压到 4 步,同时在 latent diffusion 上也能实现 1–4 步高保真生成,说明 few-step guided diffusion 已经具备较强可行性。
  • 它和 sources/2026-04-15-distilling-ode-solvers-diffusion-models 很互补:后者蒸馏数值求解器,这篇则蒸馏 guidance 行为本身。
  • 论文还把 distilled model 用到 text-guided image editing 和 inpainting,说明这种效率收益会直接外溢到图像编辑接口,而不只停留在纯生成 benchmark。

局限或疑问

  • 它依赖已经训练好的 guided teacher,因此效率收益主要发生在部署阶段,训练前置成本仍然存在。
  • 当前证据集中在图像生成、图像编辑与修补场景,还没有覆盖更复杂的视频或多模态长序列任务。
  • 当 teacher 本身存在偏差时,distillation 也会继承这些偏差,few-step 版本的鲁棒性边界仍值得继续观察。

原始链接

  • https://arxiv.org/abs/2210.03142
  • https://arxiv.org/pdf/2210.03142.pdf

相关页面

备注

它在本库中的价值,是把 diffusion efficiency 叙事从“如何更好地走轨迹”继续推进到“如何把 guided teacher 的行为整体压缩掉”。这让 few-step diffusion 主线从单纯数值优化,扩展成了更完整的蒸馏工程谱系。