我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。

我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。

如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。

封面.png

目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

故事梗概

《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。

gif选段1.gif

城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。

gif选段2.gif

浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。

gif选段3.gif

当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。

gif选段4.gif

制作复盘

制作了这个五分钟的微电影,主要用到了Gemini、Nano Banana Pro、Seedance2.0和Suno。

确定剧本

首先是选择赛题,题目是:【掩体纪元-二向箔打击中的普通人】人类确认了二向箔的打击警报后,太阳系的人类得知打击将来临,每个人的生命都剩下了最后七天。普通人要如何度过生命中的最后 144 小时?探讨在生命最后一刻的人性力量。

把赛题作为提示词,先让Gemini对此进行头脑风暴,然后选择了一个主题「老父亲带盲女儿完成生日愿望」这个主题进行拓展。

为什么生日愿望最后选择为听编钟呢?因为《三体》这部小说主旨涉及人类文明的延续,无论是威慑纪元还是最后的漂流瓶,核心思想就是让人类在危机下能够把文明的种子播撒出去,留下今生今世的存在的证据。

编钟,是中国的传统打击乐器,始于青铜器时代,可以说是人类最古老的乐器之一,同时,它在西周时期,主要用于祭祀、宴享等礼仪活动,是“周礼”的象征代表。

礼可以视作一种人类文明的秩序。

选择听编钟,不仅有历史的厚重,也寓意着在末日来临时,人类社会秩序崩坏,仍有人存在对秩序的向往。

有了这个主题之后,借助Gemini,很快就完成了一个具体的剧本。

原本我正在对该剧本内容进行分镜拆解,计划先生成每一个分镜的参考图。

image.png

结果,Seedance2.0的出现,让我发现没必要再写分镜了,它根据剧本来演绎的能力极强,超过了大多数二流导演。

生成人物参考图

虽然每一帧的分镜没必要做了,但是人物的参考图还是要做的,主要就是要让视频前后的人物一致性得以保持。

这个故事的主角是父亲和女儿,因此,用Nano Banana Pro做了这两张人物的三视图,以父亲为例:

男主参考.jpg

生成视频片段

Seedance2.0比可灵强的一点在于,它最多能生成15秒的视频。

一个5分钟时长的影片,理论上20段15秒的就够了。

生成单段视频时,输入的剧本内容需要估算一下演绎时间,如果把一段太长的对白放到一个镜头生成,会导致人物的讲话过于急促。

因此,如果一个场景15秒时间不够,那就拆分一下,生成第二段时,把第一段最后一帧场景作为参考图,让它继续生成。

后面剪辑的时候需要注意,两段内容在连接时可能会有细微差异,可以用运动模糊或正反打切镜等效果规避该问题。

此外,我会单独要求AI不要生成背景音乐和字幕,背景音乐和字幕需要剪辑时再来指定,以保证前后的统一性。

同时,会指定特定的摄影机和镜头,以奠定画面的基本基调,参考提示词如下:

不需要背景音乐,不要显示字幕。Cinematic shot on Arri Alexa 35, Cooke cinematic lenses (non-anamorphic), natural bokeh, widescreen cinematic framing, moody cinematic atmosphere, dramatic lighting, subtle film grain, Ultra HD, hyper-realistic --ar 2.39:1 --stylize 150

即便是一个几秒钟就能完成的镜头,我还是会选择让AI生成15s,因为Seedance2.0的创意能力比较强,很可能会产生惊喜的运镜镜头,可以在剪辑时用上。

生成音乐

让AI生成音乐,并不是说AI生成的音乐一定会最契合影片,而是为了规避音乐版权问题。

Suno可以让普通用户每天生成5次音乐。

实测发现,它的提示词遵循能力是有点不足的,我试图让它生成单一乐器演奏的音乐,但发现它始终做不到,一直会出现多乐器混杂的音乐片段。

因此,我会进行多次“抽卡”,然后筛选出某个片段是和影片内容契合的,就选入剪辑。

剪辑

剪辑软件我用的是剪映。

剪映的一大优势在于里面内置了很多特效、转场、音效素材。

尽管Seedance2.0生成的很多片段的音效已经很到位了,但是在某些特殊镜头里,还是需要用到一定的传统处理方式。

比如,影片中有一段是回忆的镜头,处理的方式是先让AI生成一段正常的镜头,然后复制一层,添加模糊特效叠加,再调成暖色调,使其更符合场景中的蜡烛光源表现。

转场用闪白+音效过渡,这样就很有电影感了。

gif素材6.gif

其它片段类似,加入“亿点点”剪辑,整部片子就完成了。

image.png

经验总结

这部影片投资了多少钱呢?大部分工具都是免费的,只有Seedance2.0买了一个月的高级会员,花费¥500。

高级会员是有1.5w积分,做完整部片子只花了5k积分,积分够的一大好处是并行抽卡

现在用的人多,普通用户可能要等半天才能得到一段。高级会员能够更快得到多段视频,然后去挑选。

大部分的镜头,基本上在3次内,就能挑出一段能用的。

但少部分的镜头,能参考的影视素材很少,比如地球被二向箔打击后,陷入二维的场景,就抽了近10次,才得到想要的场景(下次不做太空科幻片了)。

此外,有一些因素是这步片子处理没到位的,比如,主角的参考图,没生成全身像,导致后面的镜头在身体上的处理部分,会存在些许不一致的情况。

还有一点是让AI生成新闻镜头,会出现“火星文”的情况,这种可以通过生成绿幕再后期抠图的方式去解决,不过流程就有点麻烦了,这也是当前AI的局限性之一。

image.png

总之,Seedance2.0极大地简化了创作流程,特别是它能够根据人物参考图来生成声音,后期配音、对口型的问题完全不需要考虑了。

如果你看到这里了,欢迎来个一键三连,助我赛事拿奖,感谢支持。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

Read more

FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例)

FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) 📚 目录导航 文章目录 * FPGA时钟约束完全攻略:create_clock与create_generated_clock从入门到精通(附实战案例) * 📚 目录导航 * 概述 * 一、时钟约束基础概念 * 1.1 为什么需要时钟约束 * 1.1.1 指导综合优化 * 1.1.2 指导布局布线 * 1.1.3 进行静态时序分析 * 1.1.4 定义时钟域关系 * 1.2 时钟约束的分类 * 1.2.1 主时钟(Primary Clock) * 1.2.2 衍生时钟(

Dify可视化编排调用HunyuanOCR API实现合同识别机器人

Dify可视化编排调用HunyuanOCR API实现合同识别机器人 在企业日常运营中,每天都有成百上千份合同、发票、证件等待处理。传统方式依赖人工逐字录入,效率低、易出错,尤其当文档格式多样、语言混杂时,更是苦不堪言。有没有一种方法,能让机器“看懂”这些文件,并自动提取关键信息?答案是肯定的——而且现在你不需要写一行代码就能实现。 最近,腾讯推出的HunyuanOCR模型让人眼前一亮:仅用1B参数就实现了端到端的文字识别与结构化抽取,支持超100种语言,还能跑在一块4090D显卡上。更妙的是,结合像Dify这样的低代码平台,我们可以用拖拽的方式,把OCR能力快速集成进业务流程,构建一个真正可用的“合同识别机器人”。 这不再是实验室里的概念,而是今天就能落地的技术组合。 为什么传统OCR越来越力不从心? 过去几年,很多企业尝试过自动化文档处理,但结果往往不尽如人意。问题出在哪? 典型的传统OCR方案走的是“三步走”路线:先检测文字位置,再识别内容,最后靠NLP模型或规则引擎抽字段。听起来合理,可实际用起来却问题重重: * 误差累积严重:前一步错了,后面全错; * 部署

反无人机技术:保卫天空的秘密武器

反无人机技术:保卫天空的秘密武器

引言 想象一下,一架小巧的无人机悄无声息地飞过你的后院,镜头对准了你的私人空间。或者,在军事基地上空,一架不明无人机携带可疑装置,威胁着国家安全。随着无人机的普及,它们从娱乐工具变成了潜在的安全隐患。从间谍活动到恐怖袭击,无人机的滥用正催生一场“反无人机”的科技竞赛。今天,我们将深入探讨反无人机的原因、原理和手段,揭开这场隐形战争的秘密。无论你是科技爱好者还是安全专家,这篇博客都将带你进入一个充满创新与挑战的世界。 反无人机的原因 反无人机技术的兴起,源于无人机带来的多重威胁。首先,安全风险是核心驱动力。无人机可用于非法监视、走私违禁品,甚至携带爆炸物发动攻击。例如,在军事领域,敌方无人机可能侦察敏感设施;在民用场景,无人机干扰民航飞行,导致航班延误或事故。其次,隐私侵犯日益严重。个人和企业的隐私常被无人机偷拍侵犯,引发法律纠纷。最后,潜在危险不容忽视。无人机失控或恶意操作可能伤及无辜,如2018年英国盖特威克机场的无人机扰航事件,导致数百航班取消,经济损失巨大。这些原因共同推动了全球反无人机技术的快速发展,旨在保护空域安全和个人权益。 反无人机的原理:如何“找到”无人机

【机器人】复现 StreamVLN 具身导航 | 流式VLN | 连续导航

【机器人】复现 StreamVLN 具身导航 | 流式VLN | 连续导航

StreamVLN 通过在线、多轮对话的方式,输入连续视频,输出动作序列。 通过结合语言指令、视觉观测和空间位姿信息,驱动模型生成导航动作(前进、左转、右转、停止)。 论文地址:StreamVLN: Streaming Vision-and-Language Navigation via SlowFast Context Modeling 代码地址:https://github.com/OpenRobotLab/StreamVLN 本文分享StreamVLN 复现和模型推理的过程~ 下面是示例效果: 1、创建Conda环境 首先创建一个Conda环境,名字为streamvln,python版本为3.9; 然后进入streamvln环境,执行下面命令: conda create -n streamvln python=3.9 conda activate streamvln 2、 安装habitat仿真环境