DynVideo-E(CVPR 2024):利用动态 NeRF 做大尺度运动与视角变化的人体中心视频编辑
会议:CVPR 2024
发表日期:2023/10/16
资料加入日期:2026-04-14
一句话结论
这篇工作把 dynamic NeRF 接进视频编辑,补强了 human-centric 大运动/视角变化编辑这条路线。
问题定义
它要解决的是人体中心视频在大幅运动变化与视角变化下难以稳定编辑的问题。对当前知识库来说,它补的是 video-editing 在 3D/动态表示方向上的一条重要分支。
方法概述
DynVideo-E 借助 dynamic NeRF 来支持 large-scale motion- and view-change human-centric video editing,强调结构保持与变化控制。
关键发现
- 它说明视频编辑主线并不只沿 2D diffusion 展开,也有 3D/动态表示路线。
- 它把 human-centric editing 和 view-change editing 拉到同一框架里,补厚复杂编辑能力谱。
- 它为以后比较 2D 扩散路线和 3D 表示路线提供了很好的对照样本。
局限或疑问
- 这一路线更聚焦 human-centric 场景。
- 系统复杂度与表示成本通常更高。
- 它是重要分支,但未必适合所有通用视频编辑任务。
原始链接
- https://arxiv.org/abs/2310.10624
- https://arxiv.org/pdf/2310.10624
相关页面
- topics/video-editing
- topics/video-generation
- entities/video-editing-understanding
- questions/question-do-benchmarks-track-real-video-editing-understanding
备注
DynVideo-E 在这套库里的作用,是把动态 NeRF 人体视频编辑路线补成明确分支。