随着 AIGC 技术的演进,影视创作的门槛正在降低。无论是情感表达还是商业演示,利用 AI 工具提效已成为工作流中不可或缺的一环。本文不赘述底层原理,直接聚焦于实际场景中的工具选择与操作流程。
一、AIGC 短片/MV 创作流程
很多人误以为 AI 生成视频是'输入一句话即得电影',实际上从 0 到 1 容易,但从 1 到 100 仍需人的审美介入。市面上的智能体平台(如纳米 AI、Medeo.AI 等)虽能辅助,但具体环节仍依赖人工审核与控制。
制作过程通常包含以下模块:

1. 剧本与分镜
Gemini 在视频理解和剧本故事输出上表现稳健,能提供专业的视角建议。涉及剧本讨论或视频规划时,我倾向于使用它作为辅助思考的伙伴。
2. 图片设计
核心需求在于保持人物一致性、色调风格及场景连贯性。截至 2025 年初,生图顶流包括 Nano-banana pro 和 seedream 4.5,能满足精准度要求。Midjourney 则在审美宽度上有天然优势,适合风格迁移;而 Banana 和 Seedream 更擅长处理细节准确性(如手指数量问题)。
以下是 AI 工具生图的典型场景示例:


以及改图场景:

3. 视频生成
视频模型没有绝对的优劣,只有是否适合。根据经验总结:即梦适合表演细腻的场景,可灵在清晰度和大运镜上表现不错,Sora2 适合快速出 Demo,Vidu 擅长特效动画,海螺适合打斗,Higgsfield 侧重特效,Runway 则常用于 P 视频场景(近期可灵 O1 效果也很出色)。

测试发现,平台的安全过滤、数据微调等因素会影响创意自由度。遇到画面描述差异时,不一定是提示词问题,有时是专有名词的理解偏差。因此,涉及影视行业术语时,配合英文词汇会更准确。
例如,'难过'在英文中有七八种形容,细微差别明显;镜头推近也有焦段放大(zoom in)、轨道推(dolly in)和手持推(handheld in)的区别。
运镜方式(Camera Movement) 核心影响动态节奏,英文描述更易被识别轨迹细节:











