基于 Openclaw 与 Seed2.0 的 AI 漫剧生成工作流
最近通过 Openclaw 框架结合字节 Seed2.0 模型,开发了一套 AI 漫剧视频生成 Skills。这套方案覆盖了从脚本编写、角色设定到视频生成及效果验收的全流程。
技能包概览
该方案基于字节 Seed2.0 构建,包含以下核心子技能:
- seedance-video:支持文生视频、图生视频,Seedance 1.5 Pro 版本自带音频生成能力。
- manga-style-video:提供 8 种漫画风格一键切换,包括日式治愈系、吉卜力、国风水墨、美式卡通等。
- manga-drama:漫剧生成器核心,输入主角图即可自动编排分镜短剧。
- volcengine-video-understanding:基于 doubao-seed-2.0-code 能力的火山视频理解,用于生成后的情感表达与效果分析。
整套流程实现了从写脚本到出视频再到验收的一站式自动化。

通过控制提示词,可以生成较为精致的动漫风格视频。例如使用如下提示词:
动漫风格视频,一名长发高中少女漫步在盛开的樱花树下。粉色的花瓣在微风中缓缓飘落。明媚的春季阳光洒下,产生柔和的镜头光晕效果。侧向跟踪镜头,怀旧氛围,高画质,控制在 20M 以内,并以视频文件预览的方式直接发给我

目前使用的是 Seedance 1.5 Pro,待 2.0 API 开放后效果预计会更佳。
实战流程解析
剧本逻辑编排
漫剧生成的第一步是分镜脚本。Openclaw 后端配置的大模型负责生成分镜逻辑和场景顺序。
以「少年仗剑走天涯」国风漫剧为例,模型会自动拆解为开场独白、拔剑出鞘、对决场景、雨中沉思、结尾定格等幕次,并附带详细的画面描述和镜头指令。

主角设定与风格选择
脚本确定后,调用 canghe-image-gen skill 生成主角形象,支持 Google API 及第三方 API(如 Seedream 5.0)。同时,manga-style-video skill 提供 8 种预设风格,每种内置专业提示词,无需手动调参。

漫剧生成
这是工作流中最关键的环节。manga-drama Skill 接收主角图,自动编排整套分镜。内置了 5 种分镜类型:主角登场、动作场景、情感表达、互动场景、结尾定格。每一幕的构图、镜头角度、光影氛围均由系统安排。

当前存在传参考图链接中断的小问题,后续会修复。整体流程耗时约十分钟。
效果验收
视频生成完成后,volcengine-video-understanding 对内容进行质量分析。基于 Seed2.0 的视频理解能力,可反馈情感表达到位与否、场景衔接是否顺畅,相当于内置了 AI 质检员。

资源与成本说明
整个流程涉及多次大模型调用,Token 消耗较大。建议使用火山引擎的 Coding Plan 套餐以获得较高的性价比,特别是新用户首购优惠期间。
该方案主要依赖 doubao-seed-2.0-code 的 Agent 和 VLM 能力,其在多模态感知、长视频理解及对 Skills 的应用上表现优异。相比在公共 Hub 中盲目搜索,维护个人技能仓库更能沉淀方法论与领域配置。
随着 Seedance 2.0 API 的正式开放,未来在画面一致性与角色连贯性上将进一步提升。感兴趣的开发者可将相关技能开源至 GitHub 仓库进行复用。



