AI视频新霸主诞生!Dream Machine官宣免费用,电影级大片玩疯
【新智元导读】继Pika宣布上新2.0版本后,视频生成领域又有新模型加入。成立于2021年的Luma AI今天刚刚官宣了文生视频/图生视频模型Dream Machine,而且提供免费使用API,高质量的生成效果获得了很多网友的好评。
视频生成领域,又添一员猛将!
就在今天,Luma AI首发了自己的视频生成模型Dream Machine,可以通过文字或图片生成高质量的逼真视频。
更重要的是,API对全球免费开放!进入官网后用谷歌账号登录即可马上试用。

每个用户每月有30次免费生成的额度,但比较遗憾的是,每条视频时长只有5秒。

免费试用的消息一出,热情的网友们纷纷挤入服务器,结果发现Luma AI囤的算力好像不够,于是开始了一场漫长的等待。

刚发布后,有些人等了2个小时还没生成出来,Reddit社区中一片怨声载道。

果不其然最后「真香」了,这个视频质量是值得等一会儿的。

接下来,看看这个「造梦机」究竟有多疯狂?
电影级画质,逼真感拉满
官方放出的demo涵盖了各种不同风格和题材的视频,能感觉到最突出的特点就是「电影感」拉满。
不仅有比较好的连贯性,镜头的艺术感也非常不错。
此外,demo还单独强调了一些模型能力,比如生成各种动态以及具有表现力的人物。
不得不说,Luma的审美真的在线,视频中的小姐姐都有一种超模般的「高级美」。

下面这个黑白色调的仰拍镜头,人物动作自然丝滑、一气呵成,裙摆飞起时的幅度虽然有些夸张,但还在可接受范围内。
最重要的是动作符合自然规律,没有出现「手臂融化」、「膝盖外折」这种神奇情况

下面这个demo可以让日漫迷们浅浅兴奋一下,不仅风格对味儿,而且镜头很有意境,可以开始幻想「人均新海诚」了。

比官方demo更精彩的,是各路大神网友们的脑洞创意。
比如在人眼中嵌入一个手绘地球仪。

原本需要几千个高斯点染图的工作,一个Dream Machine就能瞬间完成了。
Sora发布时,很多人惊叹于模型对于光影效果的理解,Dream Machine在这方面的表现也很不错。
这位网友用自己拍摄一张的照片作为提示,生成出来的视频可以延续之前的光感,丝毫不会割裂。

将世界名画《带珍珠耳环的少女》输入给Dream Machine,就可以让艺术史上这位著名模特瞬间「复活」。

但是模型似乎有它自己的想法和审美,比如视频后半段自行更改了模特的相貌和头巾材质,感觉从17世纪的荷兰少女无缝衔接到21世纪T台。
之前在视频生成模型中很少见到的风格,Luma也搞出来了。
比如下面这个demo,狠狠拿捏住了好莱坞老电影的感觉。

提示:意大利黑手党家族站在桌子周围,一边抽雪茄一边数黄金和金钱
但槽点也不是没有,比如香烟的烟雾扩散似乎不够自然,而且没有遵守提示中的「站在桌子周围」(可能是黑手党老大只会坐着吧)。
专业创作者们放出的demo更加惊艳。
Reddit上放出了一段时长10秒的4K视频,作者用MidJourney生成的图片喂给Dream Machine。

https://www.reddit.com/r/singularity/comments/1decmby/maybe_this_thing_shines_with_an_input_image_here/
没有经过换脸或变速处理,一条很有质感的预告片素材就生成出来了。
虽然主角的表情几乎没什么变化,但环境和皮衣质感的渲染非常到位,五官和额头的皱纹也比较自然。
这位创作者更是重量级,他借助Luma的工具生成了一条超过1分钟的视频,作为自己电影项目的宣传片。
只看视频,你能判断出这里面有AI模型的参与吗?
作为勇敢拥抱AI浪潮的急先锋,这位创作者不仅借助Dream Machine生成视频,还使用Udio制作配乐,「没有什么是比AI视频更颠覆性的时刻了」。

https://x.com/cfryant/status/1800923904439136267
看了这么多demo,有比较严谨的Reddit网友坐不住了。模型都放出来了,应该跑下基准测试吧——
哪个好心人帮忙生成下Will Smith吃面条?

「唯一的真实基准测试。」

已经等不及的小编决定自己动手,成果如下——

没想到Dream Machine虽然不太爱听指令,但还挺有幽默感的。在其他模型中还没见过因为吃不到面条气成这样的Will。
如果输入更详细的指令呢?

面条的形态也很自然,但手指似乎不太对劲,但更明显的问题是,Will吃着吃着居然变脸了。
如果直接将这张图片输入给模型,能否解决变脸的问题呢?
很遗憾,似乎并没有。
AI视频三大王者PK
那么相比Pika、Sora等同行竞品,Dream Machine的性能究竟是个什么水平?
有试用者大胆宣称,Luma是目前我们见到最好的模型!
毕竟Sora还没公开,没有人能准确评价其实力。但大家似乎都认同,Luma的表现要优于Runway和Pika。

甚至还有Luma真爱粉在推特上直抒胸臆。通过输入相同的提示对比Pika、Runway和Dream Machine三个模型,他认为最终还是Luma赢了。

从完整视频中可以看到,三个模型都可以生成和渲染很高质量的画面。
但Luma模型之所以「电影感」更强,一方面是似乎有更丰富的「想象力」,能脑补出更多表情和动作;
另一方面则是源于更自然的镜头节奏,人物的行动速度适中,既不过快,也不过慢。刚刚发布半天,网上似乎就充斥着对Dream Machine的溢美之词,但这并不代表模型生成的视频已经完美无缺了。
Luma官网上就非常坦诚地放出了很多有缺陷的demo,表明他们今后计划的改进方向。

比如刚才Will Smith吃面条的视频中出现的「变形」,不仅人脸会有,跑车也会有。
更惊悚的是,在水中游泳的北极熊会突然从身后长出另一个头。
此外,其他模型存在的问题,Dream Machine也没能幸免,比如有时会生成错误的文字,或者没能实现想要的动态效果。
而且小编在尝试官方推荐的文本prompt时,还偶遇了模型的「精分」现场。
输入下面这个prompt,可以得到官网同款的惊艳demo:
Low-angle shot of a majestic tiger prowling through a snowy landscape, leaving paw prints on the white blanket
一只雄壮的老虎在雪地中徘徊的低角度镜头,在白色的雪地上留下了爪印

但视频后半段就突然画风一转,不仅虎爪的形态不自然了,变脸的程度甚至达到了「惊悚」级别。

虽然有诸多不足,但是Luma能在官网上坦然放出缺陷demo,并放出了一系列「未完待续」的动图,暗示着下一步的更新很可能就在不久之后。

背后团队,5位华人
发布模型的同时,Luma也公布了模型开发团队的名单。从名字来看,14人中应该有5名华人成员。

其中,Alex Yu是公司联创兼CTO。他毕业于加州大学伯克利分校,曾在Adobe工作,研究方向是神经渲染和实时图形领域。
Yu在2021年毕业后,就和另一位创始人Amit Jain创办了Luma公司。
Jain在学校修读的是物理和数学学位,曾在苹果工作,在3D计算机视觉、机器学习、系统工程和深度技术产品方面有丰富经验。
根据crunchbase的数据,Luma AI已在3轮融资中筹集了6730万美元,最新一轮融资是今年1月9日通过的B轮融资,最新的投资方包括英伟达公司。
参考资料:
https://x.com/LumaLabsAI/status/1800921380034379951
https://www.reddit.com/r/singularity/comments/1decmby/maybe_this_thing_shines_with_an_input_image_here/
https://lumalabs.ai/dream-machine
元象XVERSE开源650亿参数通用大模型XVERSE-65B
元象XVERSE宣布开源650亿参数高性能通用大模型XVERSE-65B,无条件免费商用。XVERSE-65B是由深圳元象科技开发的一种支持多语言的大型语言模型。它采用了Transformer网络结构,参数规模达到了650亿。站长网2023-11-06 10:41:070000周鸿祎回应将成三六零最大股东:会和公司一起走下去
昨日,三六零公司正式对外公告,其控股股东——天津奇信志成科技有限公司已做出重要决议,将进行清算程序。此举意味着,清算完成后,奇信志成原有的单一大股东地位将发生转变,其持有的三六零公司股份将被拆分为36个小股东直接持有。伴随这一调整,三六零的上市公司第一大股东席位也将由奇信志成更替为周鸿祎先生。站长网2024-08-03 15:43:260000还没发布,小米汽车就被泄密了n次
“小米汽车被泄密,媒体或面临300万罚金”一事已经连续讨论两三天,不少人认为是营销,不过昨天和今天几方当事人都发了声明,披露了泄密细节。营销与否不重要,更重要的是应该正视保密协议,与思考抢发信息的准则。小米汽车遭泄密涉事媒体先后致歉一个发到朋友圈一个发给好友导致扩散0000开源大模型训练框架Megatron-LLaMA来了 32卡训练可加速176%
要点:淘天集团联合爱橙科技正式对外开源大模型训练框架Megatron-LLaMA,以提高大语言模型训练性能,降低训练成本。测试显示,相比HuggingFace代码,Megatron-LLaMA在32卡训练上获得176%的加速;在大规模训练上表现出几乎线性的扩展性。Megatron-LLaMA已在GitHub开源,将持续关注社区发展,与开发者共同推进自适应配置、更多模型支持等方向。站长网2023-09-12 15:20:130002最强编辑器 Vim 之父 Bram Moolenaar 去世,Vim 项目谁来接管?
「如果有一天,开源项目的开发者、维护者出现了意外,遗留的项目该何去何从?」虽然这并不是一个新出现的话题,但是对于主流的文本/代码编辑器Vim而言,却是当下迫切需要解决的问题。8月5日,Vim之父BramMoolenaar的家人发布讣告:“我们怀着沉重的心情通知您,BramMoolenaar于2023年8月3日离世”,享年62岁。站长网2023-08-11 17:58:430000