ArticleMetadataMain page

source · 2026-04-16

Accelerating Diffusion Transformer via Gradient-Optimized Cache(arXiv):用梯度优化缓存继续压缩 DiT 推理成本

Accelerating Diffusion Transformer via Gradient-Optimized Cache(arXiv):用梯度优化缓存继续压缩 DiT 推理成本

会议:arXiv
发表日期:2025/03/07
资料加入日期:2026-04-16

一句话结论

这篇工作把 cache acceleration 继续推进到 DiT 主干内部,用梯度优化缓存策略进一步压缩 transformer-style diffusion 的推理成本。

问题定义

DiT 主干带来更强 scaling 能力,也带来更重的推理成本。论文要解决的是,怎样在不完全重写主干的前提下,让 DiT 的中间状态缓存更有效率。

方法概述

作者围绕缓存策略做优化,把梯度信息引入缓存设计,让 DiT 在推理时更少重复计算。它的重要性在于把 cache-friendly acceleration 从 U-Net/一般 diffusion 继续推进到 DiT 专用工程层。

关键发现

局限或疑问

  • 当前仍是 arXiv 节点,工程收益的稳定性还要继续观察。
  • 缓存路线与 quantization / few-step / solver distillation 组合后的整体收益边界还不清楚。

原始链接

  • https://arxiv.org/abs/2503.05156
  • https://arxiv.org/pdf/2503.05156.pdf

相关页面

备注

它在本库中的价值,是把 cache acceleration 明确推进到 DiT-aware 工程优化层。