ControlNet作者再封神!6GB显存直出「兔八哥」动画,开源一夜获2k+星

  新智元报道

  编辑:KingHZ 英智

  只用 6GB 显存的笔记本 GPU,就能生成流畅的高质量视频!斯坦福研究团队重磅推出 FramePack,大幅改善了视频生成中的遗忘和漂移难题。

  昨天,视频生成进入了超低显存时代!

  这次出手的是 AI 界的「赛博佛祖」、ControlNet 的作者、斯坦福大学博士生张吕敏。

  他提出了以渐进式生成视频的新方法——FramePack,才过去一天对应的开源项目已有 2600 多 star。

  新方法采用独特的压缩结构和抗漂移采样方法,有效缓解了遗忘和漂移难题,提升了视频质量和连贯性。

  论文链接:https://arxiv.org/abs/2504.12626

  项目链接:https://lllyasviel.github.io/frame_pack_gitpage/

  现在只要一台 RTX 3060 6GB 笔记本,就能用单图生成5 秒、30FPS 共 150 帧的视频。

  从古代仕女图到卡通形象,通通一键动起来!

  相同的配置,还可以生成单图生成60s 的共 1800 帧视频。

  不仅如此,作者还开源了功能完备的桌面级软件,提供 GUI,使用非常简单。

  左侧上传图片,并在下方输入提示词,右侧就开始显示生成的视频及预览。

  由于采用逐段落帧预测模型,视频会持续延长生成:

  • 每个段落会显示独立进度条。

  • 系统会实时预演下一段落的潜在空间效果。

  a jellyfish dances in the sea(一只水母在海中起舞)

  网友惊呼:这下视频生成要进入超超超低显存时代了,迈入大众 GPU 了!马上就去实测!

  简单总结一下,FramePack 的特点有:

  • 使用 13B 模型和 6GB 显存的笔记本 GPU,能够以完整的 30 FPS 速率扩散(生成)数千帧。

  • 在单个 8xA100/H100 节点上,能够以 64 的批大小微调 13B 视频模型,适用于个人或实验室。

  • RTX 4090 生成速度可达 2.5 秒/帧(未优化)或 1.5 秒/帧(使用 teacache)。

  • 没有时间步长蒸馏。

  • 技术上是视频扩散,但使用体验上更接近图像扩散。

  FramePack

  FramePack 是一种全新的神经网络结构:下一帧预测(next-frame prediction model 或 next-frame-selection prediction model )。

  新方法旨在攻克视频生成中的遗忘和漂移问题

  FramePack 的设计理念十分巧妙,它根据输入帧的重要性进行压缩。

  预测下一帧时,输入帧的重要性并不相同。

  比如在人物跑步的视频里,离预测时刻越近的帧,对预测人物下一帧的动作和位置就越关键。

  FramePack 通过定义长度函数

  来确定每个帧的上下文长度,其中λ>1 是压缩参数,L_f是每帧的基础上下文长度。

  通过这个函数,越不重要的帧,上下文长度被压缩得越厉害。

  经过压缩处理,总上下文长度会遵循几何级数变化:

  当视频帧数T趋向于无穷大时,总上下文长度会收敛到固定值:

  这意味着,无论输入视频多长,FramePack 都能将总上下文长度控制在固定上限内,避免因输入帧过多导致计算量爆炸,有效解决了模型处理大量帧时的计算难题。

  考虑到硬件对计算的优化偏好,论文中主要讨论λ=2 的情况。

  在实际应用中,FramePack 还有一些细节要处理。比如针对不同压缩率的输入投影,使用独立的神经网络层参数能让学习过程更稳定。

  当输入帧长度非常大时,FramePack 提供了三种处理尾部帧的方式:

  • 可以直接删除尾部帧。

  • 也可以让每个尾部帧增加一个潜在像素来扩展上下文长度。

  • 或者对所有尾部帧进行全局平均池化,然后用最大的内核处理。

  在实际测试中发现,这几种方式对视觉效果的影响相对较小。

  另外,由于不同压缩内核编码的输入上下文长度不同,FramePack 还需要进行 RoPE 对齐。

  FramePack 变体

  为满足不同应用场景需求,提升视频生成质量,FramePack 还有多种变体。

  一种变体是重复和组合压缩级别,提高压缩率。

  比如在图1-(b)中,采用 4 的幂次方序列,每个级别重复 3 次,这样能让帧宽度和高度的内核大小保持一致,使压缩更紧凑。

  压缩也可以在时间维度上进行,如图1-(c)所示,使用 2 的幂次序列,在同一张量中编码多个帧,这种方式与 DiT 架构天然契合。

  FramePack 还创新了帧重要性的建模方式。

  除了基于时间接近度判断重要性,在图1(d)中,给最旧的帧分配全长上下文,在需要强调初始信息的应用场景中,能更好地保留关键信息。

  图1(e)将起始帧和结束帧视为同等重要,同时对中间帧应用更高的压缩。

  在图像到视频生成任务中,这种方式很有效,因为用户提供的初始帧往往承载关键信息,赋予它们更高重要性可以提升最终生成视频的质量。

  抗漂移采样

  漂移一直是视频生成中的顽疾,FramePack 提出的抗漂移采样方法为这一问题提供了新思路。

  研究发现,漂移通常发生在模型仅依赖过去帧进行预测的因果采样过程中。

  如果模型能获取未来帧的信息,哪怕只有一帧,就能有效避免漂移。基于这一发现,FramePack 提出了双向上下文的抗漂移采样方法。

  传统采样方法,如图2-(a)是按时间顺序迭代预测未来帧,而抗漂移采样则不同。

  改进后的方法,如图2-(b),在第一次迭代时,同时生成起始和结束部分,后续迭代再填充中间的间隙。

  这样一来,结束帧在一开始就被确定下来,后续生成的帧都朝着这个目标靠近,有效防止了漂移。

  还有一种反向抗漂移采样方法,如图2-(c),这种方法在图像到视频生成任务中表现出色。

  它将用户输入图像作为高质量的第一帧,然后按反向时间顺序生成后续帧,不断优化生成的帧以接近用户输入的第一帧,从而生成高质量的视频。

  FramePack 实力如何?

  为了验证 FramePack 的性能,研究人员进行了大量消融实验。

  FramePack 基于 Wan 和 HunyuanVideo 两种基础模型,涵盖了文本到视频和图像到视频的生成结构。

  数据集方面,遵循 LTXVideo 的数据集收集流程,收集了多种分辨率和质量水平的数据。

  为全面评估 FramePack 的性能,实验采用了多种评估指标,包括多维度指标、漂移测量指标和人工评估。

  多维度指标评估涵盖清晰度、美学、运动、动态、语义、解剖结构和身份等多个方面。

  当视频发生漂移时,视频开头和结尾部分在各种质量指标上会出现明显差异。

  作者提出了起止对比度

  ,其中V是测试视频,V_start 代表前 15% 的帧,V_end 代表最后 15% 的帧,M可以是运动分数、图像质量等任意质量指标。

  该指标通过计算起始和结束部分质量指标的绝对差值,直观反映出漂移的严重程度,并且由于使用绝对差值,不受视频帧生成顺序的影响。

  研究人员通过A/B测试收集用户偏好,每个消融架构会生成 100 个结果,A/B测试在不同的消融架构中随机分配,确保每个消融架构至少有 100 次评估。

  最终,通过 ELO-K32 分数和相对排名反映用户对视频的喜好程度。

  消融实验结果

  在采样方法对比中,反向抗漂移采样表现最为突出。

  它在 7 个评估指标中的 5 个上取得最佳成绩,并且在所有漂移指标上都表现优异。这充分证明了反向抗漂移采样方法在减少误差累积、提升视频质量方面的有效性。

  从生成帧数的角度来看,人工评估显示,每段生成 9 帧的配置在 ELO 分数上,明显高于生成 1 帧或 4 帧的配置,说明生成 9 帧能给用户带来更好的视觉感知。

  普通采样虽然在动态指标上获得最高分数,但这很可能是漂移效应导致的,并非真正的质量提升。

  研究人员还发现,同一采样方法下,不同配置选项之间的差异相对较小且具有随机性。

  这意味着采样方法的选择对整体性能差异的影响更为关键,而具体配置选项的微调对性能的影响相对有限。

  与替代架构的比较

  为全面评估 FramePack 的性能,研究人员将其与替代架构做了对比。

  这些替代架构包括重复图像到视频、锚帧、因果注意力、噪声历史和历史引导等方法,它们分别从不同角度尝试解决视频生成中的长视频生成、计算瓶颈和漂移等问题。

  FramePack 在多个方面表现出色。

  FramePack 在 3 个全局指标上取得最佳结果。漂移指标方面,更是全面领先,证明其解决漂移问题的有效性。

  从人工评估的 ELO 分数来看,FramePack 得分最高,表明在主观感受上,生成的视频质量更受认可。

  FramePack 为视频生成技术带来新突破。它通过独特的压缩结构和抗漂移采样方法,有效缓解了遗忘和漂移问题,提升了视频生成的质量和效率。

  作者介绍

  Lvmin Zhang

  Lvmin Zhang 是斯坦福大学计算机系的博士生,主要研究领域为计算机图形学和生成模型。

  在今年的 ICLR 投稿中,经过 rebuttal,他成功拿下最近几年的首个满分论文!

  在 ICLR 2025 满分论文中,作者介绍了一种扩散式光照编辑模型的训练方法

  Lvmin Zhang 还是 ControlNet 的作者,这是一种创新的神经网络架构,显著增强了预训练扩散模型的条件控制能力。

  参考资料:

  https://lllyasviel.github.io/frame_pack_gitpage/