我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。

我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。

如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。

封面.png

目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

故事梗概

《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。

gif选段1.gif

城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。

gif选段2.gif

浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。

gif选段3.gif

当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。

gif选段4.gif

制作复盘

制作了这个五分钟的微电影,主要用到了Gemini、Nano Banana Pro、Seedance2.0和Suno。

确定剧本

首先是选择赛题,题目是:【掩体纪元-二向箔打击中的普通人】人类确认了二向箔的打击警报后,太阳系的人类得知打击将来临,每个人的生命都剩下了最后七天。普通人要如何度过生命中的最后 144 小时?探讨在生命最后一刻的人性力量。

把赛题作为提示词,先让Gemini对此进行头脑风暴,然后选择了一个主题「老父亲带盲女儿完成生日愿望」这个主题进行拓展。

为什么生日愿望最后选择为听编钟呢?因为《三体》这部小说主旨涉及人类文明的延续,无论是威慑纪元还是最后的漂流瓶,核心思想就是让人类在危机下能够把文明的种子播撒出去,留下今生今世的存在的证据。

编钟,是中国的传统打击乐器,始于青铜器时代,可以说是人类最古老的乐器之一,同时,它在西周时期,主要用于祭祀、宴享等礼仪活动,是“周礼”的象征代表。

礼可以视作一种人类文明的秩序。

选择听编钟,不仅有历史的厚重,也寓意着在末日来临时,人类社会秩序崩坏,仍有人存在对秩序的向往。

有了这个主题之后,借助Gemini,很快就完成了一个具体的剧本。

原本我正在对该剧本内容进行分镜拆解,计划先生成每一个分镜的参考图。

image.png

结果,Seedance2.0的出现,让我发现没必要再写分镜了,它根据剧本来演绎的能力极强,超过了大多数二流导演。

生成人物参考图

虽然每一帧的分镜没必要做了,但是人物的参考图还是要做的,主要就是要让视频前后的人物一致性得以保持。

这个故事的主角是父亲和女儿,因此,用Nano Banana Pro做了这两张人物的三视图,以父亲为例:

男主参考.jpg

生成视频片段

Seedance2.0比可灵强的一点在于,它最多能生成15秒的视频。

一个5分钟时长的影片,理论上20段15秒的就够了。

生成单段视频时,输入的剧本内容需要估算一下演绎时间,如果把一段太长的对白放到一个镜头生成,会导致人物的讲话过于急促。

因此,如果一个场景15秒时间不够,那就拆分一下,生成第二段时,把第一段最后一帧场景作为参考图,让它继续生成。

后面剪辑的时候需要注意,两段内容在连接时可能会有细微差异,可以用运动模糊或正反打切镜等效果规避该问题。

此外,我会单独要求AI不要生成背景音乐和字幕,背景音乐和字幕需要剪辑时再来指定,以保证前后的统一性。

同时,会指定特定的摄影机和镜头,以奠定画面的基本基调,参考提示词如下:

不需要背景音乐,不要显示字幕。Cinematic shot on Arri Alexa 35, Cooke cinematic lenses (non-anamorphic), natural bokeh, widescreen cinematic framing, moody cinematic atmosphere, dramatic lighting, subtle film grain, Ultra HD, hyper-realistic --ar 2.39:1 --stylize 150

即便是一个几秒钟就能完成的镜头,我还是会选择让AI生成15s,因为Seedance2.0的创意能力比较强,很可能会产生惊喜的运镜镜头,可以在剪辑时用上。

生成音乐

让AI生成音乐,并不是说AI生成的音乐一定会最契合影片,而是为了规避音乐版权问题。

Suno可以让普通用户每天生成5次音乐。

实测发现,它的提示词遵循能力是有点不足的,我试图让它生成单一乐器演奏的音乐,但发现它始终做不到,一直会出现多乐器混杂的音乐片段。

因此,我会进行多次“抽卡”,然后筛选出某个片段是和影片内容契合的,就选入剪辑。

剪辑

剪辑软件我用的是剪映。

剪映的一大优势在于里面内置了很多特效、转场、音效素材。

尽管Seedance2.0生成的很多片段的音效已经很到位了,但是在某些特殊镜头里,还是需要用到一定的传统处理方式。

比如,影片中有一段是回忆的镜头,处理的方式是先让AI生成一段正常的镜头,然后复制一层,添加模糊特效叠加,再调成暖色调,使其更符合场景中的蜡烛光源表现。

转场用闪白+音效过渡,这样就很有电影感了。

gif素材6.gif

其它片段类似,加入“亿点点”剪辑,整部片子就完成了。

image.png

经验总结

这部影片投资了多少钱呢?大部分工具都是免费的,只有Seedance2.0买了一个月的高级会员,花费¥500。

高级会员是有1.5w积分,做完整部片子只花了5k积分,积分够的一大好处是并行抽卡

现在用的人多,普通用户可能要等半天才能得到一段。高级会员能够更快得到多段视频,然后去挑选。

大部分的镜头,基本上在3次内,就能挑出一段能用的。

但少部分的镜头,能参考的影视素材很少,比如地球被二向箔打击后,陷入二维的场景,就抽了近10次,才得到想要的场景(下次不做太空科幻片了)。

此外,有一些因素是这步片子处理没到位的,比如,主角的参考图,没生成全身像,导致后面的镜头在身体上的处理部分,会存在些许不一致的情况。

还有一点是让AI生成新闻镜头,会出现“火星文”的情况,这种可以通过生成绿幕再后期抠图的方式去解决,不过流程就有点麻烦了,这也是当前AI的局限性之一。

image.png

总之,Seedance2.0极大地简化了创作流程,特别是它能够根据人物参考图来生成声音,后期配音、对口型的问题完全不需要考虑了。

如果你看到这里了,欢迎来个一键三连,助我赛事拿奖,感谢支持。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

Read more

【大模型科普】AIGC技术发展与应用实践(一文读懂AIGC)

【大模型科普】AIGC技术发展与应用实践(一文读懂AIGC)

【作者主页】Francek Chen 【专栏介绍】 ⌈ ⌈ ⌈人工智能与大模型应用 ⌋ ⌋ ⌋ 人工智能(AI)通过算法模拟人类智能,利用机器学习、深度学习等技术驱动医疗、金融等领域的智能化。大模型是千亿参数的深度神经网络(如ChatGPT),经海量数据训练后能完成文本生成、图像创作等复杂任务,显著提升效率,但面临算力消耗、数据偏见等挑战。当前正加速与教育、科研融合,未来需平衡技术创新与伦理风险,推动可持续发展。 文章目录 * 一、AIGC概述 * (一)什么是AIGC * (二)AIGC与大模型的关系 * (三)常见的AIGC应用场景 * (四)AIGC技术对行业发展的影响 * (五)AIGC技术对职业发展的影响 * (六)常见的AIGC大模型工具 * (七)AIGC大模型的提示词 * 二、文本类AIGC应用实践 * (一)案例1:与DeepSeek进行对话 * (二)案例2:与百度文心一言进行对话 * (三)案例3:使用讯飞智文生成PPT

AIGC时代——语义化AI驱动器:提示词的未来图景与技术深潜

AIGC时代——语义化AI驱动器:提示词的未来图景与技术深潜

文章目录 * 一、技术范式重构:从指令集到语义认知网络 * 1.1 多模态语义解析器的进化路径 * 1.2 提示词工程的认知分层 * 二、交互革命:从提示词到意图理解 * 2.1 自然语言交互的认知进化 * 2.2 专业领域的认知增强 * 三、未来技术图谱:2025-2030演进路线 * 3.1 2025年关键突破 * 3.2 2027年技术里程碑 * 3.3 2030年技术愿景 * 四、伦理与治理:构建可信语义化AI * 4.1 动态伦理约束框架 * 4.2 提示词审计系统 * 五、开发者能力升级路线图 * 5.1 核心技能矩阵 * 5.2 典型学习路径 * 结语 * 《驱动AI:

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.