很久以前,就想做一段自己的AI视频。
直到前段时间的《芭比海默》,给了我很大的启发。
MidJourney+Gen2的流程,终于可以实现我的想法了。
(相关资料图)
于是。
我花了5个晚上,用MidJourney生成了693张图,用Gen2生成了185个镜头,最后选出来了60个镜头,剪辑成了我最喜欢的。
《流浪地球3》的预告片。
工作流程其实很简单。
MidJourney生图,Gen2生成4秒的视频。
以下是我用MidJourney生成的部分分镜图。
这些图片,为了分镜风格一致,所以我固定好了后缀提示词。这块部分词组有借鉴《创世纪》。
____ , not central composition, Science fiction movie: The Wandering Earth, in the style of detailed crowd scenes, hard sci-fi style, futuristic incredible scene, very imaginative, indoor scenes, movie scene, dynamic shot, low saturation, light white and teal,extreme detail, 8K --ar 21:9 --v 5.2
在前缀空白处描写场景或人物或镜头,后缀一致,这样可以保证画面风格的统一。
扔到Gen2里生成视频反而是最简单的一步。
直接把图片上传,生成。
不要写任何提示词,只要写任何一句话,基本都会面目全非。
说实话Gen2现在的稳定性还是一般,roll了180多个镜头,4秒全能用的一共只有2个。其他的基本都只能用前1~2秒。
但是对于剪辑至少是够了。
而且我也遇到了跟《创世纪》作者同样的问题。
用Gen2生成人脸视频的时候,一定不要开增强Upscale,要不然面部会变动巨大。生成场景的时候,开增强Upscale效果会更好。
剩下的也没啥技术含量了,roll就行了,最后挑选镜头,按心中的故事或主题剪辑。
话说本来我是自己手绘了50个左右的分镜线稿,还写好了故事线,埋了彩蛋,结果发现AI根本不会按我的预期效果去弄。
最后管他呢,量大管饱,生成几百个镜头,总能拼的。
这次《流浪地球3》预告片的工作流,对我来说是个很有意思的实验。
以前自己做视频,Blender建模渲染,1个多月的时间,现在下班后的5个晚上就搞定。
AI,真的是效率革命。
不知道Gen4的时候,会有什么样的光景。
关键词: