我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。

我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。

如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。

封面.png

目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

故事梗概

《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。

gif选段1.gif

城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。

gif选段2.gif

浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。

gif选段3.gif

当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。

gif选段4.gif

制作复盘

制作了这个五分钟的微电影,主要用到了Gemini、Nano Banana Pro、Seedance2.0和Suno。

确定剧本

首先是选择赛题,题目是:【掩体纪元-二向箔打击中的普通人】人类确认了二向箔的打击警报后,太阳系的人类得知打击将来临,每个人的生命都剩下了最后七天。普通人要如何度过生命中的最后 144 小时?探讨在生命最后一刻的人性力量。

把赛题作为提示词,先让Gemini对此进行头脑风暴,然后选择了一个主题「老父亲带盲女儿完成生日愿望」这个主题进行拓展。

为什么生日愿望最后选择为听编钟呢?因为《三体》这部小说主旨涉及人类文明的延续,无论是威慑纪元还是最后的漂流瓶,核心思想就是让人类在危机下能够把文明的种子播撒出去,留下今生今世的存在的证据。

编钟,是中国的传统打击乐器,始于青铜器时代,可以说是人类最古老的乐器之一,同时,它在西周时期,主要用于祭祀、宴享等礼仪活动,是“周礼”的象征代表。

礼可以视作一种人类文明的秩序。

选择听编钟,不仅有历史的厚重,也寓意着在末日来临时,人类社会秩序崩坏,仍有人存在对秩序的向往。

有了这个主题之后,借助Gemini,很快就完成了一个具体的剧本。

原本我正在对该剧本内容进行分镜拆解,计划先生成每一个分镜的参考图。

image.png

结果,Seedance2.0的出现,让我发现没必要再写分镜了,它根据剧本来演绎的能力极强,超过了大多数二流导演。

生成人物参考图

虽然每一帧的分镜没必要做了,但是人物的参考图还是要做的,主要就是要让视频前后的人物一致性得以保持。

这个故事的主角是父亲和女儿,因此,用Nano Banana Pro做了这两张人物的三视图,以父亲为例:

男主参考.jpg

生成视频片段

Seedance2.0比可灵强的一点在于,它最多能生成15秒的视频。

一个5分钟时长的影片,理论上20段15秒的就够了。

生成单段视频时,输入的剧本内容需要估算一下演绎时间,如果把一段太长的对白放到一个镜头生成,会导致人物的讲话过于急促。

因此,如果一个场景15秒时间不够,那就拆分一下,生成第二段时,把第一段最后一帧场景作为参考图,让它继续生成。

后面剪辑的时候需要注意,两段内容在连接时可能会有细微差异,可以用运动模糊或正反打切镜等效果规避该问题。

此外,我会单独要求AI不要生成背景音乐和字幕,背景音乐和字幕需要剪辑时再来指定,以保证前后的统一性。

同时,会指定特定的摄影机和镜头,以奠定画面的基本基调,参考提示词如下:

不需要背景音乐,不要显示字幕。Cinematic shot on Arri Alexa 35, Cooke cinematic lenses (non-anamorphic), natural bokeh, widescreen cinematic framing, moody cinematic atmosphere, dramatic lighting, subtle film grain, Ultra HD, hyper-realistic --ar 2.39:1 --stylize 150

即便是一个几秒钟就能完成的镜头,我还是会选择让AI生成15s,因为Seedance2.0的创意能力比较强,很可能会产生惊喜的运镜镜头,可以在剪辑时用上。

生成音乐

让AI生成音乐,并不是说AI生成的音乐一定会最契合影片,而是为了规避音乐版权问题。

Suno可以让普通用户每天生成5次音乐。

实测发现,它的提示词遵循能力是有点不足的,我试图让它生成单一乐器演奏的音乐,但发现它始终做不到,一直会出现多乐器混杂的音乐片段。

因此,我会进行多次“抽卡”,然后筛选出某个片段是和影片内容契合的,就选入剪辑。

剪辑

剪辑软件我用的是剪映。

剪映的一大优势在于里面内置了很多特效、转场、音效素材。

尽管Seedance2.0生成的很多片段的音效已经很到位了,但是在某些特殊镜头里,还是需要用到一定的传统处理方式。

比如,影片中有一段是回忆的镜头,处理的方式是先让AI生成一段正常的镜头,然后复制一层,添加模糊特效叠加,再调成暖色调,使其更符合场景中的蜡烛光源表现。

转场用闪白+音效过渡,这样就很有电影感了。

gif素材6.gif

其它片段类似,加入“亿点点”剪辑,整部片子就完成了。

image.png

经验总结

这部影片投资了多少钱呢?大部分工具都是免费的,只有Seedance2.0买了一个月的高级会员,花费¥500。

高级会员是有1.5w积分,做完整部片子只花了5k积分,积分够的一大好处是并行抽卡

现在用的人多,普通用户可能要等半天才能得到一段。高级会员能够更快得到多段视频,然后去挑选。

大部分的镜头,基本上在3次内,就能挑出一段能用的。

但少部分的镜头,能参考的影视素材很少,比如地球被二向箔打击后,陷入二维的场景,就抽了近10次,才得到想要的场景(下次不做太空科幻片了)。

此外,有一些因素是这步片子处理没到位的,比如,主角的参考图,没生成全身像,导致后面的镜头在身体上的处理部分,会存在些许不一致的情况。

还有一点是让AI生成新闻镜头,会出现“火星文”的情况,这种可以通过生成绿幕再后期抠图的方式去解决,不过流程就有点麻烦了,这也是当前AI的局限性之一。

image.png

总之,Seedance2.0极大地简化了创作流程,特别是它能够根据人物参考图来生成声音,后期配音、对口型的问题完全不需要考虑了。

如果你看到这里了,欢迎来个一键三连,助我赛事拿奖,感谢支持。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

Read more

Stable-Diffusion-3.5提示词语法校验:错误输入拦截部署教程

Stable-Diffusion-3.5提示词语法校验:错误输入拦截部署教程 你是不是也遇到过这种情况:在Stable Diffusion里输入了一大段精心构思的提示词,满怀期待地点击生成,结果要么是图片跑偏了,要么是直接报错,浪费了时间和算力。尤其是在使用最新的SD 3.5模型时,提示词的语法和结构要求更精细,一个不小心就容易“翻车”。 今天我要分享的,就是一个能帮你从源头解决问题的方案——为你的Stable-Diffusion-3.5-FP8镜像部署一个提示词语法校验器。它能像一位严格的“语法老师”,在你点击生成前,就检查出提示词里的错误、冲突或不规范的写法,并给出修改建议,让你告别无效生成,把每一次算力都用在刀刃上。 1. 为什么需要提示词语法校验? 在深入部署之前,我们先搞清楚一个问题:为什么提示词会出错?SD 3.5的提示词系统虽然强大,但也有一些“潜规则”。 1.1 常见的提示词错误类型 我总结了几类新手和老手都容易踩的坑: * 语法冲突:比如同时使用了矛盾的修饰词。(masterpiece, best quality:1.2) 和

AI绘画新选择:对比Stable Diffusion与Z-Image-Turbo的快速搭建方案

AI绘画新选择:对比Stable Diffusion与Z-Image-Turbo的快速搭建方案 为什么需要快速切换AI绘画模型? 作为一名数字艺术家,我经常需要在不同AI绘画模型之间切换测试效果。传统方式每次都要重新配置环境,不仅耗时耗力,还可能遇到依赖冲突等问题。本文将分享如何通过预置环境快速对比Stable Diffusion和Z-Image-Turbo这两个热门模型。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含这两个模型的预置镜像,可以快速部署验证。下面我会从实际使用角度,带你了解两种模型的特性差异和部署技巧。 环境准备与快速启动 基础环境要求 * GPU:建议NVIDIA显卡,显存≥8GB(Z-Image-Turbo最低6GB也可运行) * 系统:Linux/Windows WSL2 * 驱动:CUDA 11.7+ 一键启动命令 # 拉取预置镜像(已包含双模型) docker pull ZEEKLOG/ai-painting:sd-zimage # 启动容器(自动挂载输出目录) docker run -it --gpus al

OpenAI Whisper语音转文字:5步实现本地高精度转录终极方案

OpenAI Whisper语音转文字:5步实现本地高精度转录终极方案 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为语音识别服务的网络延迟和高昂成本而困扰吗?OpenAI Whisper开源模型让你在本地环境中实现专业级语音转录,无需依赖外部服务。本文将为你揭示从零开始搭建完整语音识别系统的完整流程。 🎯 项目核心价值解析 Whisper-base.en作为OpenAI开源的语音识别模型,具备以下核心优势: * 离线运行:完全本地化部署,保护数据隐私 * 多语言支持:准确识别中文、英文等主流语言 * 零延迟响应:本地处理消除网络传输延迟 * 成本可控:一次性部署,无持续使用费用 语音识别处理流程 Whisper语音识别完整工作流程示意图 🛠️ 系统环境一键检测 在开始部署前,首先确认你的系统环境是否符合要求: python --version ffmpeg -version 如果缺少必要组件,可通过系统包管理器快速