概述
近期深入使用 Openclaw,为其配置了多种实用技能。为了提升内容创作效率,开发了基于字节 Seed2.0 的 AI 漫剧视频生成 Skills。
该方案包含以下子技能:
- seedance-video:文生视频、图生视频,seedance 1.5 Pro 版本支持音频生成。
- manga-style-video:8 种漫画风格一键切换(日式治愈系、吉卜力、国风水墨、美式卡通等)。
- manga-drama:核心漫剧生成器,输入主角图自动编排分镜短剧。
- volcengine-video-understanding:火山视频理解,用于生成后的效果分析,底层基于 doubao-seed-2.0-code 能力。
从写脚本到出视频再到验收,全流程覆盖。
实战流程
1. 剧本逻辑编排
漫剧第一步需生成分镜脚本。后端大模型负责生成分镜逻辑与场景顺序。
例如制作「少年仗剑走天涯」国风漫剧,模型会自动拆解为开场独白、拔剑出鞘、对决场景、雨中沉思、结尾定格等幕次,并附带详细画面描述和镜头指令。
2. 主角设定 + 风格选择
脚本确认后,调用 image-gen skill 生成主角形象,支持 Google API 及第三方 API。
风格方面,manga-style-video skill 提供 8 种预设风格,内置专业提示词,无需手动调参。本次选用国风水墨配合主题。
3. 漫剧生成
manga-drama Skill 是工作流的核心。操作方式为上传主角图,系统自动编排整套分镜。
内置 5 种分镜类型:主角登场、动作场景、情感表达、互动场景、结尾定格。每一幕的构图、镜头角度、光影氛围均由系统安排。
4. 效果验收
视频生成后,通过 volcengine-video-understanding 进行内容分析。
基于 seed2.0 的视频理解能力,可反馈情感表达到位情况、场景衔接流畅度等,相当于自带 AI 质检员。
整套流程从一张图到完整漫剧视频,耗时约十分钟。
技术选型与成本
该流程涉及较多 Skills 调用及视频理解,对 Token 消耗较大。建议使用具备 Agent 和 VLM 能力的模型,如 doubao-seed-2.0-code。
该模型在多模态感知、长视频理解及对 Skills 的应用上表现优异,适合此类复杂工作流。
总结
Openclaw 的可玩性丰富,但需注意 Token 消耗。最佳使用方式是搭载自定义 Skills 技能包,而非依赖公共基线。建议维护个人技能仓库,将方法论、模板沉淀为可版本化资产。
待 Seedance 2.0 API 正式开放后,画面一致性与角色连贯性预计会有进一步提升。


