Seedance 2.0 多模态视频创作完整操作指南
字节的 AI 视频模型 Seedance 2.0 近期引发了广泛关注,其核心突破在于将 AI 视频生成从单纯的'文生视频'升级为支持多模态控制的创作平台。创作者现在可以通过图片、视频、音频和文字的组合输入,实现对画面风格、运镜节奏及剧情内容的精准指挥。
核心功能与参数限制
Seedance 2.0 的核心变化在于输入模态的扩展。除了传统的自然语言描述外,还支持以下素材作为参考或指令:
| 参数 | 说明 |
|---|---|
| 图片输入 | 最多上传 9 张,用于指定角色、场景、服装或分镜 |
| 视频输入 | 最多 3 个,总时长不超过 15 秒,参考运镜与动作 |
| 音频输入 | 支持 MP3,最多 3 个,总时长不超过 15 秒,指定配乐或音色 |
| 文字输入 | 自然语言描述(中英文),定义画面与剧情 |
| 生成时长 | 4-15 秒,可自由选择 |
| 声音输出 | 自带音效和配乐 |
| 文件总上限 | 所有素材加起来最多 12 个文件 |
建议优先上传对画面风格和节奏影响最大的素材,避免堆砌无效文件。
操作流程详解
1. 选择入口
打开即梦平台找到 Seedance 2.0 后,界面通常提供两个入口:
- 首尾帧入口:仅适用于单张图片加文字描述的场景。
- 全能参考入口:推荐大多数情况使用,支持图片、视频、音频与文字的多模态组合,能发挥模型最大能力。
2. 上传素材
点击上传按钮,支持直接拖入本地文件。上传成功后,素材会显示在输入框区域,鼠标悬停可查看预览。注意总文件数限制为 12 个,需合理分配图片、视频和音频的比例。
3. 配置引用关系(关键步骤)
这是新手最容易忽略的环节。上传完素材后,必须在提示词中通过 @素材名 的方式明确告诉模型每个素材的具体用途。模型不会自动猜测,未指定的素材可能导致生成混乱。
唤起方式:
- 在输入框直接输入
@字符,会自动弹出已上传素材列表。 - 点击输入框旁工具栏的
@按钮。
常用写法示例:
- 指定首帧与参考:
@图片 1 作为首帧,参考 @视频 1 的镜头语言,@音频 1 用于配乐 - 指定角色形象:
@图片 1 的女生作为主角,@图片 2 的男生作为配角 - 指定运镜参考:
完全参考 @视频 1 的所有运镜效果和转场 - 指定场景/动作:
左边场景参考 @图片 3,右边场景参考 @图片 4;@图片 1 的人物参考 @视频 1 中的舞蹈动作
注意事项: 素材较多时,务必反复检查 @ 引用是否对应正确。将图片误当作视频引用,或混淆角色图标,会导致生成结果混乱。鼠标悬停在引用的素材上可再次确认内容。


