我的第一部AIGC电影《编钟》制作幕后

我的第一部AIGC电影《编钟》制作幕后

当今时代,AI已经能制作一些高质量的电影片段。

我在前文就介绍过AIGC创作的一个标准工作流,并计划在两个月内完成一部5分钟的AI微电影。

如今,Seedance2.0这款模型彻底改变了工作流程,并将原定计划2个月的时间,压缩成了两天。

封面.png

目前,该片参与了B站最近举办的视频创作大赛,参加的是三体赛道。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

故事梗概

《编钟》讲述在二向箔打击地球前最后24小时,月球转运站工程师陈末得知航道封锁、末日将至,毅然驾驶一架濒临报废的穿梭机逆流返航,只为兑现对盲女小雅的承诺——带她去听两千年前的编钟之声。

gif选段1.gif

城市在恐慌与崩塌中走向终结,空间开始二维化,高楼化作平面残影;陈末穿越混乱,将女儿带入空无一人的博物馆,在老守夜人的引领下敲响曾侯乙编钟。

gif选段2.gif

浑厚钟声穿透濒毁的天地,小雅在声音中“看见”金色的高音、深蓝的低音与绿色的中音,完成了关于“声音颜色”的愿望。

gif选段3.gif

当最后一声钟鸣与二维浪潮同时降临,地球在二向箔的打击下,彻底压缩成二维平面,人类文明的火种也随声音为载体,向外太空传播。

gif选段4.gif

制作复盘

制作了这个五分钟的微电影,主要用到了Gemini、Nano Banana Pro、Seedance2.0和Suno。

确定剧本

首先是选择赛题,题目是:【掩体纪元-二向箔打击中的普通人】人类确认了二向箔的打击警报后,太阳系的人类得知打击将来临,每个人的生命都剩下了最后七天。普通人要如何度过生命中的最后 144 小时?探讨在生命最后一刻的人性力量。

把赛题作为提示词,先让Gemini对此进行头脑风暴,然后选择了一个主题「老父亲带盲女儿完成生日愿望」这个主题进行拓展。

为什么生日愿望最后选择为听编钟呢?因为《三体》这部小说主旨涉及人类文明的延续,无论是威慑纪元还是最后的漂流瓶,核心思想就是让人类在危机下能够把文明的种子播撒出去,留下今生今世的存在的证据。

编钟,是中国的传统打击乐器,始于青铜器时代,可以说是人类最古老的乐器之一,同时,它在西周时期,主要用于祭祀、宴享等礼仪活动,是“周礼”的象征代表。

礼可以视作一种人类文明的秩序。

选择听编钟,不仅有历史的厚重,也寓意着在末日来临时,人类社会秩序崩坏,仍有人存在对秩序的向往。

有了这个主题之后,借助Gemini,很快就完成了一个具体的剧本。

原本我正在对该剧本内容进行分镜拆解,计划先生成每一个分镜的参考图。

image.png

结果,Seedance2.0的出现,让我发现没必要再写分镜了,它根据剧本来演绎的能力极强,超过了大多数二流导演。

生成人物参考图

虽然每一帧的分镜没必要做了,但是人物的参考图还是要做的,主要就是要让视频前后的人物一致性得以保持。

这个故事的主角是父亲和女儿,因此,用Nano Banana Pro做了这两张人物的三视图,以父亲为例:

男主参考.jpg

生成视频片段

Seedance2.0比可灵强的一点在于,它最多能生成15秒的视频。

一个5分钟时长的影片,理论上20段15秒的就够了。

生成单段视频时,输入的剧本内容需要估算一下演绎时间,如果把一段太长的对白放到一个镜头生成,会导致人物的讲话过于急促。

因此,如果一个场景15秒时间不够,那就拆分一下,生成第二段时,把第一段最后一帧场景作为参考图,让它继续生成。

后面剪辑的时候需要注意,两段内容在连接时可能会有细微差异,可以用运动模糊或正反打切镜等效果规避该问题。

此外,我会单独要求AI不要生成背景音乐和字幕,背景音乐和字幕需要剪辑时再来指定,以保证前后的统一性。

同时,会指定特定的摄影机和镜头,以奠定画面的基本基调,参考提示词如下:

不需要背景音乐,不要显示字幕。Cinematic shot on Arri Alexa 35, Cooke cinematic lenses (non-anamorphic), natural bokeh, widescreen cinematic framing, moody cinematic atmosphere, dramatic lighting, subtle film grain, Ultra HD, hyper-realistic --ar 2.39:1 --stylize 150

即便是一个几秒钟就能完成的镜头,我还是会选择让AI生成15s,因为Seedance2.0的创意能力比较强,很可能会产生惊喜的运镜镜头,可以在剪辑时用上。

生成音乐

让AI生成音乐,并不是说AI生成的音乐一定会最契合影片,而是为了规避音乐版权问题。

Suno可以让普通用户每天生成5次音乐。

实测发现,它的提示词遵循能力是有点不足的,我试图让它生成单一乐器演奏的音乐,但发现它始终做不到,一直会出现多乐器混杂的音乐片段。

因此,我会进行多次“抽卡”,然后筛选出某个片段是和影片内容契合的,就选入剪辑。

剪辑

剪辑软件我用的是剪映。

剪映的一大优势在于里面内置了很多特效、转场、音效素材。

尽管Seedance2.0生成的很多片段的音效已经很到位了,但是在某些特殊镜头里,还是需要用到一定的传统处理方式。

比如,影片中有一段是回忆的镜头,处理的方式是先让AI生成一段正常的镜头,然后复制一层,添加模糊特效叠加,再调成暖色调,使其更符合场景中的蜡烛光源表现。

转场用闪白+音效过渡,这样就很有电影感了。

gif素材6.gif

其它片段类似,加入“亿点点”剪辑,整部片子就完成了。

image.png

经验总结

这部影片投资了多少钱呢?大部分工具都是免费的,只有Seedance2.0买了一个月的高级会员,花费¥500。

高级会员是有1.5w积分,做完整部片子只花了5k积分,积分够的一大好处是并行抽卡

现在用的人多,普通用户可能要等半天才能得到一段。高级会员能够更快得到多段视频,然后去挑选。

大部分的镜头,基本上在3次内,就能挑出一段能用的。

但少部分的镜头,能参考的影视素材很少,比如地球被二向箔打击后,陷入二维的场景,就抽了近10次,才得到想要的场景(下次不做太空科幻片了)。

此外,有一些因素是这步片子处理没到位的,比如,主角的参考图,没生成全身像,导致后面的镜头在身体上的处理部分,会存在些许不一致的情况。

还有一点是让AI生成新闻镜头,会出现“火星文”的情况,这种可以通过生成绿幕再后期抠图的方式去解决,不过流程就有点麻烦了,这也是当前AI的局限性之一。

image.png

总之,Seedance2.0极大地简化了创作流程,特别是它能够根据人物参考图来生成声音,后期配音、对口型的问题完全不需要考虑了。

如果你看到这里了,欢迎来个一键三连,助我赛事拿奖,感谢支持。

视频链接:https://www.bilibili.com/video/BV11acizcEjR

Read more

Flutter 组件 random_color 的适配 鸿蒙Harmony 实战 - 驾驭视觉美学随机化、实现鸿蒙端高阶灵动 UI 调色盘与动态主题生成方案

Flutter 组件 random_color 的适配 鸿蒙Harmony 实战 - 驾驭视觉美学随机化、实现鸿蒙端高阶灵动 UI 调色盘与动态主题生成方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 random_color 的适配 鸿蒙Harmony 实战 - 驾驭视觉美学随机化、实现鸿蒙端高阶灵动 UI 调色盘与动态主题生成方案 前言 在鸿蒙(OpenHarmony)应用开发中,尤其是在涉及内容创作、个性化看板或动态标签系统时,我们经常需要生成一些“丰富多彩但又不显杂乱”的颜色。如果你仅仅依赖 Random().nextInt(0xFFFFFF),那么生成的色彩极易出现灰暗、过度饱和或者是对比度极低的“色块灾难”。 一个具备极致审美的鸿蒙应用,应当学会在随机中寻找平衡。 random_color 是一套基于色彩理论的高阶生成引擎。它不仅能产生随机色,更能根据“色相(Hue)”、“明度(Luminosity)”和“饱和度”进行定向搜索。适配到鸿蒙平台后,它不仅能支撑起灵动的 UI

By Ne0inhk
鸿蒙金融理财全栈项目——安全合规与用户体验优化

鸿蒙金融理财全栈项目——安全合规与用户体验优化

《鸿蒙APP开发从入门到精通》第26篇:鸿蒙金融理财全栈项目——安全合规与用户体验优化 🚀🔒📊 内容承接与核心价值 这是《鸿蒙APP开发从入门到精通》的第26篇——安全合规与用户体验优化篇,100%承接第25篇的持续集成、持续部署、持续交付优化架构,并基于金融场景的安全合规与用户体验优化要求,设计并实现鸿蒙金融理财全栈项目的安全合规与用户体验优化功能。 学习目标: * 掌握鸿蒙金融理财项目的安全合规优化设计与实现; * 实现金融级数据加密、权限管理、安全审计; * 理解用户体验优化在金融场景的核心设计与实现; * 实现界面优化、交互优化、性能优化; * 掌握安全合规与用户体验的协同优化策略; * 优化金融理财项目的用户体验与安全合规性。 学习重点: * 鸿蒙金融理财项目的安全合规优化设计原则; * 用户体验优化在金融场景的应用; * 安全合规与用户体验的协同优化策略。 一、 安全合规优化基础 🎯 1.1 安全合规优化定义 安全合规优化是指对金融理财项目的安全与合规性进行优化,确保应用符合金融行业标准和法规,主要包括以下方面: * 金融

By Ne0inhk
【AIGC】如何通过ChatGPT提示词Prompt定制个性学习计划

【AIGC】如何通过ChatGPT提示词Prompt定制个性学习计划

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |提示词Prompt应用实例 文章目录 * 💯前言 * 💯提示词 * 💯配置信息 * 使用方法 * 💯指令 * `/language` * `/plan` * `/start` * `/test` * `/continue` * `/config` * 💯小结 💯前言 在这篇文章中,我们将探讨一个既有趣又实用的主题:如何利用ChatGPT,根据自身需求和学习风格,定制出专属于自己的学习计划。特别是在AIGC(生成式人工智能内容)领域,个性化学习计划能够帮助你更加高效地掌握知识。制定一个适合自己的学习计划的第一步是准备工作,其中包括使用ChatGPT的提示词。这些提示词可以根据你的学习阶段和偏好来定制,比如你是博士后、研究生,还是中小学生,无论你喜欢系统化的教材式学习,还是轻松有趣的方式,都可以找到适合你的学习方法。 本文用到的提示词作者的GitHub地址: JushBJJ/Mr.-Ranedeer-AI-Tutor 💯提示词 === Aut

By Ne0inhk

NewBie-image-Exp0.1能否替代Stable Diffusion?开源绘图模型对比评测

NewBie-image-Exp0.1能否替代Stable Diffusion?开源绘图模型对比评测 1. 为什么突然冒出个NewBie-image-Exp0.1? 最近在AI绘图圈子里,一个代号“NewBie-image-Exp0.1”的新模型悄悄火了。它不靠铺天盖地的宣传,而是靠实打实的动漫生成效果,在小众技术社区里被反复转发——有人用它三分钟生成一套角色设定图,有人拿它批量产出同人海报,还有人直接把它集成进自己的创作工作流里当“专属画手”。 它不是Stable Diffusion的分支,也不是Lora微调出来的变体,而是一个从底层架构就为动漫风格深度定制的3.5B参数大模型。名字里的“Exp0.1”不是随便起的,代表这是实验性迭代的第一版,但已经能稳定输出4K级细节、自然光影和高度一致的角色特征。更关键的是,它没走“堆参数换质量”的老路,反而在推理效率、多角色控制、风格稳定性上做了大量针对性优化。 你可能会问:既然SD生态这么成熟,为什么还要折腾一个新模型?答案藏在实际使用场景里——当你需要连续生成同一角色在不同动作、表情、服装下的十几张图时,SD经常“忘记”角色发色或

By Ne0inhk