我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。

我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。

如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。

封面.png

目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

故事梗概

《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。

gif选段1.gif

城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。

gif选段2.gif

浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。

gif选段3.gif

当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。

gif选段4.gif

制作复盘

制作了这个五分钟的微电影,主要用到了Gemini、Nano Banana Pro、Seedance2.0和Suno。

确定剧本

首先是选择赛题,题目是:【掩体纪元-二向箔打击中的普通人】人类确认了二向箔的打击警报后,太阳系的人类得知打击将来临,每个人的生命都剩下了最后七天。普通人要如何度过生命中的最后 144 小时?探讨在生命最后一刻的人性力量。

把赛题作为提示词,先让Gemini对此进行头脑风暴,然后选择了一个主题「老父亲带盲女儿完成生日愿望」这个主题进行拓展。

为什么生日愿望最后选择为听编钟呢?因为《三体》这部小说主旨涉及人类文明的延续,无论是威慑纪元还是最后的漂流瓶,核心思想就是让人类在危机下能够把文明的种子播撒出去,留下今生今世的存在的证据。

编钟,是中国的传统打击乐器,始于青铜器时代,可以说是人类最古老的乐器之一,同时,它在西周时期,主要用于祭祀、宴享等礼仪活动,是“周礼”的象征代表。

礼可以视作一种人类文明的秩序。

选择听编钟,不仅有历史的厚重,也寓意着在末日来临时,人类社会秩序崩坏,仍有人存在对秩序的向往。

有了这个主题之后,借助Gemini,很快就完成了一个具体的剧本。

原本我正在对该剧本内容进行分镜拆解,计划先生成每一个分镜的参考图。

image.png

结果,Seedance2.0的出现,让我发现没必要再写分镜了,它根据剧本来演绎的能力极强,超过了大多数二流导演。

生成人物参考图

虽然每一帧的分镜没必要做了,但是人物的参考图还是要做的,主要就是要让视频前后的人物一致性得以保持。

这个故事的主角是父亲和女儿,因此,用Nano Banana Pro做了这两张人物的三视图,以父亲为例:

男主参考.jpg

生成视频片段

Seedance2.0比可灵强的一点在于,它最多能生成15秒的视频。

一个5分钟时长的影片,理论上20段15秒的就够了。

生成单段视频时,输入的剧本内容需要估算一下演绎时间,如果把一段太长的对白放到一个镜头生成,会导致人物的讲话过于急促。

因此,如果一个场景15秒时间不够,那就拆分一下,生成第二段时,把第一段最后一帧场景作为参考图,让它继续生成。

后面剪辑的时候需要注意,两段内容在连接时可能会有细微差异,可以用运动模糊或正反打切镜等效果规避该问题。

此外,我会单独要求AI不要生成背景音乐和字幕,背景音乐和字幕需要剪辑时再来指定,以保证前后的统一性。

同时,会指定特定的摄影机和镜头,以奠定画面的基本基调,参考提示词如下:

不需要背景音乐,不要显示字幕。Cinematic shot on Arri Alexa 35, Cooke cinematic lenses (non-anamorphic), natural bokeh, widescreen cinematic framing, moody cinematic atmosphere, dramatic lighting, subtle film grain, Ultra HD, hyper-realistic --ar 2.39:1 --stylize 150

即便是一个几秒钟就能完成的镜头,我还是会选择让AI生成15s,因为Seedance2.0的创意能力比较强,很可能会产生惊喜的运镜镜头,可以在剪辑时用上。

生成音乐

让AI生成音乐,并不是说AI生成的音乐一定会最契合影片,而是为了规避音乐版权问题。

Suno可以让普通用户每天生成5次音乐。

实测发现,它的提示词遵循能力是有点不足的,我试图让它生成单一乐器演奏的音乐,但发现它始终做不到,一直会出现多乐器混杂的音乐片段。

因此,我会进行多次“抽卡”,然后筛选出某个片段是和影片内容契合的,就选入剪辑。

剪辑

剪辑软件我用的是剪映。

剪映的一大优势在于里面内置了很多特效、转场、音效素材。

尽管Seedance2.0生成的很多片段的音效已经很到位了,但是在某些特殊镜头里,还是需要用到一定的传统处理方式。

比如,影片中有一段是回忆的镜头,处理的方式是先让AI生成一段正常的镜头,然后复制一层,添加模糊特效叠加,再调成暖色调,使其更符合场景中的蜡烛光源表现。

转场用闪白+音效过渡,这样就很有电影感了。

gif素材6.gif

其它片段类似,加入“亿点点”剪辑,整部片子就完成了。

image.png

经验总结

这部影片投资了多少钱呢?大部分工具都是免费的,只有Seedance2.0买了一个月的高级会员,花费¥500。

高级会员是有1.5w积分,做完整部片子只花了5k积分,积分够的一大好处是并行抽卡

现在用的人多,普通用户可能要等半天才能得到一段。高级会员能够更快得到多段视频,然后去挑选。

大部分的镜头,基本上在3次内,就能挑出一段能用的。

但少部分的镜头,能参考的影视素材很少,比如地球被二向箔打击后,陷入二维的场景,就抽了近10次,才得到想要的场景(下次不做太空科幻片了)。

此外,有一些因素是这步片子处理没到位的,比如,主角的参考图,没生成全身像,导致后面的镜头在身体上的处理部分,会存在些许不一致的情况。

还有一点是让AI生成新闻镜头,会出现“火星文”的情况,这种可以通过生成绿幕再后期抠图的方式去解决,不过流程就有点麻烦了,这也是当前AI的局限性之一。

image.png

总之,Seedance2.0极大地简化了创作流程,特别是它能够根据人物参考图来生成声音,后期配音、对口型的问题完全不需要考虑了。

如果你看到这里了,欢迎来个一键三连,助我赛事拿奖,感谢支持。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

Read more

FRCRN开源模型实战指南:WebAssembly浏览器端轻量化部署探索

FRCRN开源模型实战指南:WebAssembly浏览器端轻量化部署探索 你有没有遇到过这样的场景?在线会议时,背景里突然传来装修的电钻声;录制播客时,窗外持续不断的车流声让人心烦;或者想用语音转文字工具,却因为环境嘈杂导致识别率惨不忍睹。传统的降噪软件要么效果平平,要么需要安装庞大的客户端,操作繁琐。 今天,我们来聊聊一个能直接在浏览器里解决这些问题的方案——将阿里巴巴达摩院开源的FRCRN语音降噪模型,通过WebAssembly技术部署到浏览器端。这意味着,你不需要安装任何软件,打开网页就能享受接近专业级的实时语音降噪效果。 这篇文章,我将带你从零开始,手把手完成FRCRN模型在浏览器端的轻量化部署。无论你是前端开发者想为产品增加AI降噪功能,还是普通用户想体验前沿的Web AI应用,都能跟着步骤轻松实现。 1. 为什么选择FRCRN与WebAssembly? 在深入技术细节之前,我们先搞清楚两个核心问题:FRCRN模型有什么特别之处?为什么要在浏览器里跑AI模型? 1.1 FRCRN:专为复杂噪声设计的降噪高手 FRCRN全称Frequency-Recurrent

WebPlotDigitizer:智能图表数据提取工具提升科研效率指南

WebPlotDigitizer:智能图表数据提取工具提升科研效率指南 【免费下载链接】WebPlotDigitizerWebPlotDigitizer: 一个基于 Web 的工具,用于从图形图像中提取数值数据,支持 XY、极地、三角图和地图。 项目地址: https://gitcode.com/gh_mirrors/we/WebPlotDigitizer 技术原理:智能数据解析的双层级架构 WebPlotDigitizer作为一款专业的图表数据提取工具,其核心优势在于创新性的双层级处理架构。这种架构将复杂的图像识别任务分解为"智能识别层"与"数据校准层",实现了从像素到数据的精准转换。 智能识别层:视觉语义理解的核心 智能识别层通过计算机视觉技术实现图表内容的深度理解。不同于传统的像素分析方法,该层能够识别图表的语义结构,包括坐标轴类型、数据系列分布和标签信息。这一过程主要由javascript/services/ai.js模块驱动,通过多维度特征提取实现图表类型的自动分类。 系统首先进行图像预处理,包括噪声过滤和对比度增强,为后续分析奠定基础。接着通过边缘检测算法识别

抖音热门视频解析:前端AI与营销增长领域的AI应用核心趋势

抖音热门视频解析:前端AI与营销增长领域的AI应用核心趋势

在抖音平台上,“前端AI”与“营销业务(广告投放、用户增长)”领域的AI应用内容呈现出强烈的实战导向与场景化特征。以下结合平台热门视频,从技术落地与业务增长双视角,解析核心趋势与实操价值。 一、前端AI领域:从“工具辅助”到“体验革新”的抖音热门方向 抖音前端开发者们的内容聚焦“AI如何让前端开发更高效、让用户体验更智能”,核心视频可分为两大流派: 1. AI驱动的前端开发效率革命 这类视频以“AI工具赋能前端全流程”为核心,抖音博主们热衷于展示“输入需求→AI生成→人工优化”的闭环。 • 代码生成与调试:例如博主“前端工程师阿乐”演示,输入“创建一个带懒加载和瀑布流布局的图片画廊组件,适配移动端”,AI工具(如Copilot、通义千问)能直接生成包含HTML结构、Tailwind CSS样式、JavaScript交互的完整代码,甚至自动处理边缘案例(如无图时的占位态)。若代码运行报错,AI还能智能分析报错信息并给出修复方案,将“

什么是 JWT?一文彻底搞懂 JSON Web Token(附 Spring Boot 实战)

视频看了几百小时还迷糊?关注我,几分钟让你秒懂! 你是否经常听到这些词: * “我们用 JWT 做登录认证” * “前端把 token 放在 Authorization 头里” * “JWT 无状态,适合分布式系统” 但你真的理解 JWT 到底是什么?它怎么工作?和 Session 有什么区别? 吗? 今天我们就用 通俗语言 + 图解 + Spring Boot 代码实战,带你从零彻底搞懂 JWT! 🧩 一、一句话解释 JWT JWT(JSON Web Token)是一种开放标准(RFC 7519),用于在网络应用间安全地传递“声明”(claims)的紧凑、自包含令牌。 简单说:JWT 就是一个加密的字符串,里面包含了用户身份信息,