拖拽下图像就能生成视频,中科大、微软等DragNUWA属实惊艳
随着 ChatGPT、GPT-4、LLaMa 等模型的问世,人们越来越关注生成式模型的发展。相比于日渐成熟的文本生成和图像生成,视频、语音等模态的 AI 生成还面临着较大的挑战。
现有可控视频生成工作主要存在两个问题:首先,大多数现有工作基于文本、图像或轨迹来控制视频的生成,无法实现视频的细粒度控制;其次,轨迹控制研究仍处于早期阶段,大多数实验都是在 Human3.6M 等简单数据集上进行的,这种约束限制了模型有效处理开放域图像和复杂弯曲轨迹的能力。
基于此,来自中国科学技术大学、微软亚研和北京大学的研究者提出了一种基于开放域扩散的新型视频生成模型 ——DragNUWA。DragNUWA 从语义、空间和时间三个角度实现了对视频内容的细粒度控制。本文共一作殷晟明、吴晨飞,通讯作者段楠。

论文地址:https://arxiv.org/abs/2308.08089
以拖动(drag)的方式给出运动轨迹,DragNUWA 就能让图像中的物体对象按照该轨迹移动位置,并且可以直接生成连贯的视频。例如,让两个滑滑板的小男孩按要求路线滑行:


还可以「变换」静态景物图像的相机位置和角度:


方法简介
该研究认为文本、图像、轨迹这三种类型的控制是缺一不可的,因为它们各自有助于从语义、空间和时间角度控制视频内容。如下图1所示,仅文本和图像的组合不足以传达视频中存在的复杂运动细节,这可以用轨迹信息来补充;仅图像和轨迹组合无法充分表征视频中的未来物体,文本控制可以弥补这一点;在表达抽象概念时,仅依赖轨迹和文本可能会导致歧义,图像控制可以提供必要的区别。

DragNUWA 是一种端到端的视频生成模型,它无缝集成了三个基本控件 —— 文本、图像和轨迹,提供强大且用户友好的可控性,从语义、空间和时间角度对视频内容进行细粒度控制。


为了解决当前研究中有限的开放域轨迹控制问题,该研究重点关注三个方面的轨迹建模:
使用轨迹采样器(Trajectory Sampler,TS)在训练期间直接从开放域视频流中采样轨迹,用于实现任意轨迹的开放域控制;
使用多尺度融合(Multiscale Fusion,MF)将轨迹下采样到各种尺度,并将其与 UNet 架构每个块内的文本和图像深度集成,用于控制不同粒度的轨迹;
采用自适应训练(Adaptive Training,AT)策略,以密集流为初始条件来稳定视频生成,然后在稀疏轨迹上进行训练以适应模型,最终生成稳定且连贯的视频。

实验及结果
该研究用大量实验来验证 DragNUWA 的有效性,实验结果展示了其在视频合成细粒度控制方面的卓越性能。
与现有专注于文本或图像控制的研究不同,DragNUWA 主要强调建模轨迹控制。为了验证轨迹控制的有效性,该研究从相机运动和复杂轨迹两个方面测试了 DragNUWA。
如下图4所示,DragNUWA 虽然没有明确地对相机运动进行建模,但它从开放域轨迹的建模中学习了各种相机运动。

为了评估 DragNUWA 对复杂运动的精确建模能力,该研究使用相同的图像和文本对各种复杂的拖动(drag)轨迹进行了测试。如下图5所示,实验结果表明 DragNUWA 能够可靠地控制复杂运动。

此外,DragNUWA 虽然主要强调轨迹控制建模,但也融合了文本和图像控制。研究团队认为,文本、图像和轨迹分别对应视频的三个基本控制方面:语义、空间和时间。下图6通过展示文本(p)、轨迹(g)和图像(s)的不同组合(包括 s2v、p2v、gs2v、ps2v 和 pgs2v)说明了这些控制条件的必要性。

蔡崇信:中国有80%科技企业和一半大模型公司都跑在阿里云上
2023云栖大会现场,阿里巴巴集团主席蔡崇信发言指出,智能化时代正在开启,AI将成为各行业新型生产力,目前中国80%的科技企业和一半的大模型公司都跑在阿里云上面。图源备注:图片由AI生成,图片授权服务商Midjourney站长网2023-10-31 12:14:060000蔚来手机售价6499元起 李斌回应:定价很合适
在今日的NIOIN2023蔚来创新科技日上,蔚来创始人、董事长兼首席执行官李斌公布了蔚来手机的最新动向。蔚来手机被命名为NIOPhone,三个版本的价格分别为性能版6499元、旗舰版6899元以及EPedition特别版7499元。这款手机目前已在蔚来App上开放售卖,并将从9月28日开始发货。站长网2023-09-21 16:44:480000《歌手2024》:“救那英”与“救自己”
时隔四年,《歌手2024》终于整了个大的。首播当晚《歌手2024》相关话题就开始在各社交平台刷屏,从#那英紧张#到#五旬老太守国门#火爆全网,一天后收获全网热搜974个,抖音节目主话题拿下32.9亿播放。同时,持续四天的热度发酵,也带火了芒果超媒的股价,截至5月13日芒果超媒收涨11.69%,盘中一度涨超12%。站长网2024-05-14 18:07:090000组合式AI驱动生态系统XenonJs 像搭积木一样构建Web应用
XenonJs是一个模块化的Web开发框架,让开发者可以轻松创建和分享可定制的Web应用和组件。该框架具有以下核心优点:XenonJs采用组件化和图状态(GraphState)的模式,开发者可以像搭积木一样组合不同的组件和服务来构建Web应用。组件间采用标准化接口,实现松耦合和高内聚。开发者可以选择使用官方组件库中的现成组件,也可以开发自定义组件。组件和组件组合非常易于重用。站长网2023-09-12 10:24:010000麻省理工学院研究人员在机器学习模型隐私保护方面取得突破
麻省理工学院的研究人员通过引入一种新的隐私度量标准和一个确定所需噪音最小量的框架,取得了保护机器学习模型中敏感数据的突破。传统的隐私保护方法往往通过添加大量噪音来防止对特定数据的识别,但这会降低模型的准确性。而新的隐私度量标准“ProbablyApproximatelyCorrect(PAC)Privacy”则从不同的角度考虑,评估了对手在添加噪音后重构敏感数据的难度。站长网2023-07-21 12:09:280006