AI新风口?首个高质量「文生视频」模型Zeroscope引发开源大战:最低8G显存可跑
【新智元导读】首个高质量文本转视频开源模型Zeroscope,仅需8G显存就能用!
文生图模型Stable Diffusion开源后,将「AI艺术」彻底平民化,只需一张消费级显卡即可制作出非常精美的图片。
而文本转视频领域,目前质量较高的只有Runway前不久推出的商用Gen-2模型,开源界还没有一个能打的模型。
最近,Huggingface上有作者发布了一个文生视频模型Zeroscope_v2,基于17亿参数量的ModelScope-text-to-video-synthesis模型进行二次开发。

模型链接:https://huggingface.co/cerspense/zeroscope_v2_576w
相比于原版本,Zeroscope生成的视频没有水印,并且流畅度和分辨率都得到了提升,适配16:9的宽高比。
开发者cerspense表示,他的目标就是和Gen-2进行开源较量,即提高模型质量的同时,还能免费供大众使用。
Zeroscope_v2包括两个版本,其中Zeroscope_v2567w可以快速生成576x320像素分辨率、帧率为30帧/秒的视频,可用于视频概念的快速验证,只需要约7.9GB的显存即可运行。
Zeroscope_v2XL可以生成1024x576分辨率的高清视频,大约需要15.3GB的显存。
Zeroscope还可以与音乐生成工具MusicGen一起使用,快速制作一个纯原创短视频。
Zeroscope模型的训练用到了9923个视频片段(clip)以及29769个标注帧,每个片段包括24帧。偏移噪声包括视频帧内对象的随机移位、帧定时(frame timings)的轻微变化或微小失真。
训练期间引入噪声可以增强模型对数据分布的理解,从而可以生成更多样化的逼真视频,并更有效地解释文本描述中的变化。
使用stable diffusion webui
在Huggingface上下载zs2_XL目录下的权重文件,然后放到stable-diffusion-webui\models\ModelScope\t2v目录下即可。
在生成视频时,推荐的降噪强度值为0.66到0.85
使用Colab

笔记链接:https://colab.research.google.com/drive/1TsZmatSu1-1lNBeOqz3_9Zq5P2c0xTTq?usp=sharing
先点击Step1下的运行按钮,等待安装,大约需要3分钟;

当按钮旁边出现绿色复选标记时,继续执行下一步。

点击想要安装模型附近的运行按钮,为了能够在Colab中快速获得3秒左右的剪辑视频,更推荐使用低分辨率的ZeroScope模型(576或448)。

如果相运行更高分辨率模型(Potat1或ZeroScope XL),运行也会更费时间,需要做出权衡。
再次等待复选标记出现,继续执行下一步。
选择在Step2中安装并希望使用的模型型号,对于更高分辨率的模型,推荐下面的配置参数,不需要太长的生成时间。

然后为目标视频效果输入提示词,也可以输入否定提示(negative prompts),再按下运行按钮。
等待一会后,生成的视频就会被放置在outputs目录下。

extremely detailed, Futuristic Cityscape, blade runner, extremely cloudy, awardwinning, best quality,8k
非常详细,未来城市景观,叶片亚军,极端多云,获奖,最好的质量,8k
目前来说,文生视频领域仍处于起步阶段,即便是最好的工具也只能生成几秒钟的视频,并且通常存在较大的视觉缺陷。
但其实文生图模型最初也面临着类似的问题,但仅仅几个月后就实现了照片级真实感。
不过与文生图模型不同的是,视频领域在训练和生成期间所需要的资源都要更比图像更多。
虽然谷歌已经研发出了Phenaki和Imagen Video模型,可以生成高分辨率、更长、逻辑连贯的视频片段,但公众无法使用到这两个模型;Meta的Make-a-Video模型也同样没有发布。
目前可用的工具仍然只有Runway的商用模型Gen-2,此次Zeroscope的发布也标志着文生视频领域第一个高质量开源模型的出现。
参考资料:
https://the-decoder.com/zeroscope-is-a-free-text-to-video-model-that-runs-on-modern-graphics-cards/
国际劳工组织:ChatGPT等生成式AI能增强就业,不会取代岗位
联合国直属机构国际劳工组织(简称ILO)发布了,《生成式AI和就业:对工作数量和质量的潜在全球影响分析》报告。(报告地址:https://www.ilo.org/global/publications/working-papers/WCMS_890761/lang--en/index.htm)站长网2023-08-28 09:34:330001月之暗面推出 Kimi+ 助手 支持研报生成、200万字无损等功能
站长之家(ChinaZ.com)5月7日消息:Kimi智能助手在节后迎来了首次大规模更新,为用户带来了全新的Kimi功能。现在,用户只需在网页聊天框中轻松输入@,或在左侧工具栏一键点击,即可畅享Kimi带来的便捷与智能。这项新功能不仅致力于解决各类特定问题,更是构建起了强大的AI生产线,为用户提供前所未有的智能支持。站长网2024-05-07 10:41:310001中国移动:人类正迈入第四次工业革命 正式公布“三个计划”
快科技6月26日消息,在2024年世界移动通信大会上海(MWC上海)开幕式上,中国移动董事长杨杰发表演讲。他表示,当前,人类社会正迈入以信息为主导、信息和能量深度融合的第四次工业革命,即数智化革命”,新质生产力加速形成。站长网2024-06-26 23:22:430000谷歌或于 2027 年自主生产AI芯片,不再依赖博通、每年可节省数十亿美元
文章概要:1.谷歌考虑自主生产Tensor处理单元(TPUs),不再依赖Broadcom(博通),旨在节省大量成本。2.此举将使谷歌与亚马逊和微软等巨头保持一致,自主研发AI芯片,有望每年节省数十亿美元。3.但谷歌的最终决策仍受到Broadcom价格策略的影响,Broadcom是全球第二大AI芯片销售商,目前营收仅次于Nvidia。站长网2023-09-25 11:08:370000AITO问界新M7的交付时刻: 赛力斯汽车亮出智能制造“杀手锏”
AITO问界新M7的销量爆了,口碑也紧接着“爆”了。AITO问界新M7系列上市以来50天,累计大定突破8万辆。AITO问界M9预计今年12月上市,预订超过了1.5万辆。根据最新公布的产销数据,在过去的10月份,AITO问界系列交付新车1.27万辆,单车型单月交付直接破万,创历史新高。站长网2023-11-05 10:30:150000