Midjourney+Gen2,7步完成「芭本海默」,引Karpathy惊呼|附实测经验
【新智元导读】7步完成「芭本海默」,电影工业2.0真的要来了吗?
在前两天芭比海默全网爆火之后,不断有网友“复现”用MidJourney Gen-2制作电影的神技!
而一位网友更新了一个自己的教程,制作芭本海默只需7步,被Karpathy盛赞为“电影制作工业2.0”。


一部20秒钟,有完整剧情,包含6个分镜头的动画短片,7步完成,曹植看了都要直呼内行!
7步完成芭比海默,效果惊人
下面就给大家具体演示一下:
1.ChatGPT帮你写分镜头剧本,顺便再帮你把字幕也写好

2.根据分镜头脚本,用Midjourney生成每个镜头的开始的一张图片。

这里可能是7步成片中唯一一步稍微有点门槛的操作,每张图片的提示词要自己创作。
但是点击图片放大之后可以看到提示词也不是很长,有一点英语基础的朋友稍微试一下就能做到。

这是短片中另外几个场景的起始图片,也全都是用Midjourney生成。
3. 为了保证短片中的场景色调一致,需要用修图软件调整一下每张图片的色调。

比如短片里的色调是比较复古的风格,Midjourney生成的原图可能不符合。
用任意一款修图软件调整过后,就能让所有场景的风格比较一致了。

4. 使用Gen-2让每一张照片动起来,把6张照片变为6个分镜头。

5.然后用ElevenLabs生成字幕的语音。

6. 然后用FinalCut Pro把动画,声音,和特效结合起来,短片就基本完成了。

7. 再用Capcut添加好字幕,大功告成!

实测之后发现的经验
虽然看着简单,但是亲手实测了一波后发现,没有一个清晰的规划,要想做出自己效果满意的电影,还是很不容易的。
最大的障碍在于,因为Gen-2的动画只能以某一张图随机生成,所以在涉及人脸画面的时候,畸变会比较多。
本来想做一个马老板手搓星舰的视频,但是发现人物面部的畸变太严重了,以至于每段视频只有第一帧图片是马老板本人,一秒钟之后就不知道会变成谁了。
所以如果想要用Gen-2做一个明星相关的视频,现在为止还几乎不可能。
而且这些面部畸变和人物动作时完全随机的,完全不受用户控制。
有一位网友做了一段视频,把每4秒的最后一帧截图下来让Gen-2继续生成新动画。
大概40秒之后,画面中的人物,从一开始的美漫风格的动画角色,最后几乎畸变成了雕塑。

即便图片中有一些比较明显的动态提示的效果,但是Gen-2还不能理解,所以生成的效果也不一定符合你的预期。

人物的动作也没有办法太好的控制,可能为了要生成一段自己满意的动画需要用同一张图尝试好长时间。
所以就目前Gen-2能实现的效果来看,还不太可能随意适应比较复杂的剧本。
所以就要求写剧本时要尽量避免近景人脸特写等场景。
但是如果未来Gen-2能够将prompt和图片完全结合起来,让图片能够跟着prompt的描述动起来,效果就会有一个巨大的飞跃。
其他的Midjourney Gen-2的效果
大神歸藏,用Gen-2做了几个《奥本海默》中的场景,足以以假乱真。

同时,他还比较了相似的场景和Pika Lab生成的区别。

下图是Pika Lab的效果。

除了开头这段「芭比海默」之外,很多网友也用Gen-2和Midjouney这对黄金搭档做起了动画开发的副业。
让我们来欣赏几组效果不错的动画效果演示。

可以看出,在演示之中人脸的效果变形不是很大,这与实测的差异很大,很有可能是因为作者试了很多次之后找到的脸部畸变不大的效果。

有网友生成了一部名人漫威角色的预告片,效果非常逼真,配上一点动画特效和光影,感觉真的像是漫威官方的作品。

这是网友生成的一段恐怖电影的预告片,反而很好的利用了Gen-2人物画面畸变,增加了恐怖片的氛围感。

这一段也是网友用MJ Gen-2做的艺术感很强的视频,加上后期跟新的导演运镜特效。

这是一幅用油画的静图生成的动画,虽然有一点畸变,但是效果确实不错。
参考资料:
https://twitter.com/karpathy/status/1684608881920802816
https://twitter.com/kalsonkalu/status/1684534663472087042
12年前上手深度学习,Karpathy掀起一波AlexNet时代回忆杀,LeCun、Goodfellow等都下场
没想到,自2012年AlexNet开启的深度学习革命已经过去了12年。而如今,我们也进入了大模型的时代。近日,知名AI研究科学家AndrejKarpathy的一条帖子,让参与这波深度学习变革的许多大佬们陷入了回忆杀。从图灵奖得主YannLeCun到GAN之父IanGoodfellow,纷纷忆往昔。到目前为止,该帖子已经有63万的浏览量。站长网2024-05-05 23:05:540000北京交管局回应小米汽车送车牌传闻:暂未收到相关通知
站长之家(ChinaZ.com)2月23日消息:近日,有传闻称,对于首批购买小米汽车的车主,如果没有北京牌照,可能会获得赠送的牌照。这一消息引起了广泛关注和猜测。据新浪科技报道,针对此事,截止发稿时,小米方面并未对此消息做出官方回应。站长网2024-02-23 14:46:480000提示工程没用了?MIT、斯坦福推主动提问框架GATE 让大模型主动提问
要点:1.新研究提出了一种机器学习框架,GATE,允许大型模型主动向人类提问,以更好地理解用户的偏好,替代了传统的提示工程。2.这新方法通过主动提问能够更准确地捕捉用户喜好,不再依赖用户提供的提示,从而提高了大型模型的性能。3.论文指出这一方法可能在需要复杂决策的领域如医疗和法律中有广泛应用,但关于提示工程的未来仍存在争议。站长网2023-10-20 14:33:570005iPhone 16 Pro或将搭载骁龙X75基带
海通国际证券技术分析师JeffPu透露,苹果公司的下一代iPhone16Pro和iPhone16ProMax将配备高通公司最新的骁龙X75基带,此举将使其提供更快更省电的5G网络连接。JeffPu还进一步提出,苹果公司有意扩大iPhone标准版和Pro版本之间的区别,因此,iPhone16和iPhone16Plus将继续使用与上一代相同的骁龙X70基带。站长网2023-10-13 11:01:190002右脑科技RightBrain AI旗下AI视频创作Video Studio功能开启内测
右脑科技(RightBrainAI)宣布VideoStudioAI视频创作功能开启内测,支持定制视频模型,一键视频风格切换、特效生成、拖拽式视频创作。据悉,北京右脑科技有限公司(RightBrainAI)成立于2022年9月,是一家专注研发AI图像和视频生成的初创公司,致力于将AIGC技术应用于图像及视频领域。站长网2023-08-19 15:46:410000