支持合成一分钟高清视频,华科等提出人类跳舞视频生成新框架UniAnimate
人类跳舞视频生成是一项引人注目且具有挑战性的可控视频合成任务,旨在根据输入的参考图像和目标姿势序列生成高质量逼真的连续视频。随着视频生成技术的快速发展,特别是生成模型的迭代演化,跳舞视频生成任务取得了前所未有的进展,并展示了广泛的应用潜力。
现有的方法可以大致分为两组。第一组通常基于生成对抗网络(GAN),其利用中间的姿势引导表示来扭曲参考外观,并通过之前扭曲的目标生成合理的视频帧。然而,基于生成对抗网络的方法通常存在训练不稳定和泛化能力差的问题,导致明显的伪影和帧间抖动。
第二组则使用扩散模型(Diffusion model)来合成逼真的视频。这些方法兼具稳定训练和强大迁移能力的优势,相较于基于 GAN 的方法表现更好,典型方法如 Disco、MagicAnimate、Animate Anyone、Champ 等。
尽管基于扩散模型的方法取得了显著进展,但现有的方法仍存在两个限制:一是需要额外的参考网络(ReferenceNet)来编码参考图像特征并将其与3D-UNet 的主干分支进行表观对齐,导致增加了训练难度和模型参数;二是它们通常采用时序 Transformer 来建模视频帧之间时序依赖关系,但 Transformer 的复杂度随生成的时间长度成二次方的计算关系,限制了生成视频的时序长度。典型方法只能生成24帧视频,限制了实际部署的可能性。尽管采用了时序重合的滑动窗口策略可以生成更长的视频,但团队作者发现这种方式容易导致片段重合连接处通常存在不流畅的转换和外貌不一致性的问题。
为了解决这些问题,来自华中科技大学、阿里巴巴、中国科学技术大学的研究团队提出了UniAnimate 框架,以实现高效且长时间的人类视频生成。

论文地址:https://arxiv.org/abs/2406.01188
项目主页:https://unianimate.github.io/
方法简介
UniAnimate 框架首先将参考图像、姿势指导和噪声视频映射到特征空间中,然后利用统一的视频扩散模型(Unified Video Diffusion Model)同时处理参考图像与视频主干分支表观对齐和视频去噪任务,实现高效特征对齐和连贯的视频生成。
其次,研究团队还提出了一种统一的噪声输入,其支持随机噪声输入和基于第一帧的条件噪声输入,随机噪声输入可以配合参考图像和姿态序列生成一段视频,而基于第一帧的条件噪声输入(First Frame Conditioning)则以视频第一帧作为条件输入延续生成后续的视频。通过这种方式,推理时可以通过把前一个视频片段(segment)的最后一帧当作后一个片段的第一帧来进行生成,并以此类推在一个框架中实现长视频生成。
最后,为了进一步高效处理长序列,研究团队探索了基于状态空间模型(Mamba)的时间建模架构,作为原始的计算密集型时序 Transformer 的一种替代。实验发现基于时序 Mamba 的架构可以取得和时序 Transformer 类似的效果,但是需要的显存开销更小。

通过 UniAnimate 框架,用户可以生成高质量的时序连续人类跳舞视频。值得一提的是,通过多次使用 First Frame Conditioning 策略,可以生成持续一分钟的高清视频。与传统方法相比,UniAnimate 具有以下优势:
无需额外的参考网络:UniAnimate 框架通过统一的视频扩散模型,消除了对额外参考网络的依赖,降低了训练难度和模型参数的数量。
引入了参考图像的姿态图作为额外的参考条件,促进网络学习参考姿态和目标姿态之间的对应关系,实现良好的表观对齐。
统一框架内生成长序列视频:通过增加统一的噪声输入,UniAnimate 能够在一个框架内生成长时间的视频,不再受到传统方法的时间限制。
具备高度一致性:UniAnimate 框架通过迭代利用第一帧作为条件生成后续帧的策略,保证了生成视频的平滑过渡效果,使得视频在外观上更加一致和连贯。这一策略也使得用户可以生成多个视频片段,并选取生成结果好的片段的最后一帧作为下一个生成片段的第一帧,方便了用户与模型交互和按需调整生成结果。而利用之前时序重合的滑动窗口策略生成长视频,则无法进行分段选择,因为每一段视频在每一步扩散过程中都相互耦合。
以上这些特点使得 UniAnimate 框架在合成高质量、长时间的人类跳舞视频方面表现出色,为实现更广泛的应用提供了新的可能性。
生成结果示例
1. 基于合成图片进行跳舞视频生成。


2. 基于真实图片进行跳舞视频生成。


3. 基于粘土风格图片进行跳舞视频生成。


4. 马斯克跳舞。

5. Yann LeCun 跳舞。

6. 基于其他跨域图片进行跳舞视频生成。

7. 一分钟跳舞视频生成。
,时长01:05
获取原始 MP4视频和更多高清视频示例请参考论文的项目主页https://unianimate.github.io/。
实验对比分析
1. 和现有方法在 TikTok 数据集上的定量对比实验。

如上表所示,UniAnimate 方法在图片指标如 L1、PSNR、SSIM、LPIPS 上和视频指标 FVD 上都取得了最好的结果,说明了 UniAnimate 可以生成高保真的结果。
2. 和现有方法的定性对比实验。

从上述定性对比实验也可以看出,相比于 MagicAnimate、Animate Anyone, UniAnimate 方法可以生成更好的连续结果,没有出现明显的 artifacts,表明了 UniAnimate 的有效性。
3. 剥离实验。

从上表的数值结果可以看出,UniAnimate 中用到的参考姿态和统一视频扩散模型对性能提升起到了很关键的作用。
4. 长视频生成策略对比。

从上图可以看出之前常用的时序重合滑动窗口策略生成长视频容易导致不连续的过渡,研究团队认为这是因为不同窗口在时序重合部分去噪难度不一致,使得生成结果不同,而直接平均会导致有明显的变形或者扭曲等情况发生,并且这种不一致会进行错误传播。而本文利用的首帧视频延续生成方法则可以生成平滑的过渡。
更多的实验对比结果和分析可以参考原论文。
总而言之,UniAnimate 的示例结果表现和定量对比结果很不错,期待 UniAnimate 在各个领域的应用,如影视制作、虚拟现实和游戏产业等,为用户带来更为逼真、精彩的人类形象动画体验。
AI奥林匹克数学奖推出 奖金高达500万美元
要点:陶哲轩支持的AI奥林匹克数学奖推出,奖金高达500万美元,旨在寻找能够在IMO竞赛中获得金牌的大型AI模型。AI-MO大赛要求参赛AI模型具备与人类相同的数学解题格式和生成可读答案的能力,由IMO标准评分,金牌水平的AI将获得500万美元大奖。站长网2023-11-28 18:09:420001谷歌 DeepMind 首席执行官:人工智能风险类似于气候危机,世界不能拖延应对
站长网2023-10-25 09:12:210000英伟达CEO黄仁勋已抵达深圳 正在参加公司新年庆典活动
快科技1月15日消息,据知情人士透露,今日(1月15日)英伟达创始人兼CEO黄仁勋已经现身深圳分公司,目前正在参加该公司年会活动。据前一日媒体消息,英伟达首席执行官黄仁勋此行覆盖深圳、上海及北京这些主要城市。在首站抵达深圳后,他将参与公司当地员工一年一度的农历新年庆典活动。另外他的行程还将延伸至中国台北,预计于本周晚些时候成行。站长网2025-01-15 16:55:380000Humanify:专为Blender设计的插件,一键生成高度逼真的人类模型
Humanify是一个创新的Blender着色器插件,它通过简化的操作流程,使得在Blender中一键生成高度逼真的人类模型成为可能。无论是3D建模的新手还是经验丰富的艺术家,都能够利用Humanify轻松实现人物模型的真实感渲染。Humanify的主要优势包括:一键操作:与传统渲染相比,Humanify极大简化了渲染设置,用户只需点击一次即可获得逼真的渲染效果。站长网2024-04-29 17:19:140000“AI孙燕姿们”到底伤害了谁?
5月22日晚,孙燕姿发了一篇长文,首次正面回应“AI孙燕姿”。在长文中,她调侃自己是一名“冷门歌手”,AI成了所谓的顶流。同时,孙燕姿也表明了自己对于AI技术的担忧和无奈:人们一直坚信思想或观点的形成是机器无法复制的任务,因为这超出了它们的能力范围,但现在它却赫然耸现并将威胁到成千上万个由人类创造的工作,比如法律、医学、会计等行业,以及目前正在谈论的唱歌。站长网2023-05-25 09:06:010001