支持合成一分钟高清视频,华科等提出人类跳舞视频生成新框架UniAnimate
人类跳舞视频生成是一项引人注目且具有挑战性的可控视频合成任务,旨在根据输入的参考图像和目标姿势序列生成高质量逼真的连续视频。随着视频生成技术的快速发展,特别是生成模型的迭代演化,跳舞视频生成任务取得了前所未有的进展,并展示了广泛的应用潜力。
现有的方法可以大致分为两组。第一组通常基于生成对抗网络(GAN),其利用中间的姿势引导表示来扭曲参考外观,并通过之前扭曲的目标生成合理的视频帧。然而,基于生成对抗网络的方法通常存在训练不稳定和泛化能力差的问题,导致明显的伪影和帧间抖动。
第二组则使用扩散模型(Diffusion model)来合成逼真的视频。这些方法兼具稳定训练和强大迁移能力的优势,相较于基于 GAN 的方法表现更好,典型方法如 Disco、MagicAnimate、Animate Anyone、Champ 等。
尽管基于扩散模型的方法取得了显著进展,但现有的方法仍存在两个限制:一是需要额外的参考网络(ReferenceNet)来编码参考图像特征并将其与3D-UNet 的主干分支进行表观对齐,导致增加了训练难度和模型参数;二是它们通常采用时序 Transformer 来建模视频帧之间时序依赖关系,但 Transformer 的复杂度随生成的时间长度成二次方的计算关系,限制了生成视频的时序长度。典型方法只能生成24帧视频,限制了实际部署的可能性。尽管采用了时序重合的滑动窗口策略可以生成更长的视频,但团队作者发现这种方式容易导致片段重合连接处通常存在不流畅的转换和外貌不一致性的问题。
为了解决这些问题,来自华中科技大学、阿里巴巴、中国科学技术大学的研究团队提出了UniAnimate 框架,以实现高效且长时间的人类视频生成。
论文地址:https://arxiv.org/abs/2406.01188
项目主页:https://unianimate.github.io/
方法简介
UniAnimate 框架首先将参考图像、姿势指导和噪声视频映射到特征空间中,然后利用统一的视频扩散模型(Unified Video Diffusion Model)同时处理参考图像与视频主干分支表观对齐和视频去噪任务,实现高效特征对齐和连贯的视频生成。
其次,研究团队还提出了一种统一的噪声输入,其支持随机噪声输入和基于第一帧的条件噪声输入,随机噪声输入可以配合参考图像和姿态序列生成一段视频,而基于第一帧的条件噪声输入(First Frame Conditioning)则以视频第一帧作为条件输入延续生成后续的视频。通过这种方式,推理时可以通过把前一个视频片段(segment)的最后一帧当作后一个片段的第一帧来进行生成,并以此类推在一个框架中实现长视频生成。
最后,为了进一步高效处理长序列,研究团队探索了基于状态空间模型(Mamba)的时间建模架构,作为原始的计算密集型时序 Transformer 的一种替代。实验发现基于时序 Mamba 的架构可以取得和时序 Transformer 类似的效果,但是需要的显存开销更小。
通过 UniAnimate 框架,用户可以生成高质量的时序连续人类跳舞视频。值得一提的是,通过多次使用 First Frame Conditioning 策略,可以生成持续一分钟的高清视频。与传统方法相比,UniAnimate 具有以下优势:
无需额外的参考网络:UniAnimate 框架通过统一的视频扩散模型,消除了对额外参考网络的依赖,降低了训练难度和模型参数的数量。
引入了参考图像的姿态图作为额外的参考条件,促进网络学习参考姿态和目标姿态之间的对应关系,实现良好的表观对齐。
统一框架内生成长序列视频:通过增加统一的噪声输入,UniAnimate 能够在一个框架内生成长时间的视频,不再受到传统方法的时间限制。
具备高度一致性:UniAnimate 框架通过迭代利用第一帧作为条件生成后续帧的策略,保证了生成视频的平滑过渡效果,使得视频在外观上更加一致和连贯。这一策略也使得用户可以生成多个视频片段,并选取生成结果好的片段的最后一帧作为下一个生成片段的第一帧,方便了用户与模型交互和按需调整生成结果。而利用之前时序重合的滑动窗口策略生成长视频,则无法进行分段选择,因为每一段视频在每一步扩散过程中都相互耦合。
以上这些特点使得 UniAnimate 框架在合成高质量、长时间的人类跳舞视频方面表现出色,为实现更广泛的应用提供了新的可能性。
生成结果示例
1. 基于合成图片进行跳舞视频生成。
2. 基于真实图片进行跳舞视频生成。
3. 基于粘土风格图片进行跳舞视频生成。
4. 马斯克跳舞。
5. Yann LeCun 跳舞。
6. 基于其他跨域图片进行跳舞视频生成。
7. 一分钟跳舞视频生成。
,时长01:05
获取原始 MP4视频和更多高清视频示例请参考论文的项目主页https://unianimate.github.io/。
实验对比分析
1. 和现有方法在 TikTok 数据集上的定量对比实验。
如上表所示,UniAnimate 方法在图片指标如 L1、PSNR、SSIM、LPIPS 上和视频指标 FVD 上都取得了最好的结果,说明了 UniAnimate 可以生成高保真的结果。
2. 和现有方法的定性对比实验。
从上述定性对比实验也可以看出,相比于 MagicAnimate、Animate Anyone, UniAnimate 方法可以生成更好的连续结果,没有出现明显的 artifacts,表明了 UniAnimate 的有效性。
3. 剥离实验。
从上表的数值结果可以看出,UniAnimate 中用到的参考姿态和统一视频扩散模型对性能提升起到了很关键的作用。
4. 长视频生成策略对比。
从上图可以看出之前常用的时序重合滑动窗口策略生成长视频容易导致不连续的过渡,研究团队认为这是因为不同窗口在时序重合部分去噪难度不一致,使得生成结果不同,而直接平均会导致有明显的变形或者扭曲等情况发生,并且这种不一致会进行错误传播。而本文利用的首帧视频延续生成方法则可以生成平滑的过渡。
更多的实验对比结果和分析可以参考原论文。
总而言之,UniAnimate 的示例结果表现和定量对比结果很不错,期待 UniAnimate 在各个领域的应用,如影视制作、虚拟现实和游戏产业等,为用户带来更为逼真、精彩的人类形象动画体验。
知乎大模型“知海图AI”来了,要与GPT-4掰掰手腕
声明:本文来自微信公众号“三易生活”(ID:IT-3eLife),作者:三易菌,授权站长之家转载发布。站长网2023-04-21 09:34:300000AI风又吹到万亿服装产业,带来噱头还是变革?
自2023年以来,我国服装消费虽然呈现恢复态势,但是回暖速度远弱于消费大盘。限额以上服装鞋帽针纺类1-7月零售额同比2021年仅增长1.3%,而社零总额同比增长7.1%。现阶段,服装行业上下游各企业均面临着企业效益下降、消费者需求波动等一系列因素带来的挑战,加快供应链数字化从而提升企业平稳运营能力已成为行业共识。第一新声数据显示,超7成传统服装企业正通过新技术赋能企业数字化转型。站长网2023-09-20 13:55:080000时隔六年!特斯拉重新创建Facebook账号
快科技3月25日消息,媒体报道称,特斯拉时隔六年重新在老对头扎克伯格创办的社交媒体平台Facebook上创建了官方账号。根据账号的截图显示,该账号名为特斯拉北美”。目前,该账号内有两条广告,一条是宣传特斯拉的ModelYSUV,另一条是链接到相关销售渠道。值得注意的是,六年前,马斯克曾将特斯拉在Facebook的页面删除。站长网2024-03-26 10:21:490000科学家发现,AI聊天机器人只在你认为它有用时才有用
文章概要:-MIT研究人员发现,被“预设”期待某种AI体验的受试者几乎总是获得那种体验。-研究表明,聊天机器人引人注目的能力可能源自用户将期望投射到系统上。-研究人员认为整个文化对AI的看法可能影响技术的使用和发展。站长网2023-10-11 18:15:570000疯狂小杨哥等五位网红主播被点名 涉及虚假广告、产品质量问题
一份分析消费者对直播电商情绪的报告发现,14位热门主播中有5位的相关讨论量超过90%。其中,涉及“疯狂小杨哥”的维权舆情最多,占比达29.27%;其次是李佳琦,占比28.49%;刘畊宏排第三,占比15.01%。罗永浩、辛巴的讨论量也不低。该报告将以下问题确定为直播电商的主要关注点:站长网2023-04-24 11:48:400000