扣子实战:5个作品,揽163.1万赞AI漫剧!Coze一键复刻,轻松get

扣子实战:5个作品,揽163.1万赞AI漫剧!Coze一键复刻,轻松get

大家好,我是专注于AI的咕咕姐!

谁懂啊家人们!

刷抖音、视频号时,是不是总被那些AI漫剧狠狠拿捏?像这个账号5个作品,狂澜163.1万赞,单条播放轻松破10万+

还有甜宠、悬疑、逆袭剧情,画风精致、节奏紧凑,刷到停不下来,而有人靠这招月入过万。

但你一上手就懵了:写剧本要费脑,画分镜要功底,配音、剪辑、动效更是一堆麻烦事,要么卡在某一步放弃,要么花几天做一集,最后播放寥寥无几。

其实不用这么难!

今天就给大家拆解一个零门槛AI漫剧创作神器——扣子工作流,不用会绘画、不用学剪辑、不用懂代码,只要拖拽节点、简单配置,就能搭建一个“全自动AI漫剧生产线”,从剧本生成、分镜绘画,到配音、动效、合成,全程自动化,小白也能上手,轻松蹭上AI漫剧的流量风口!

那么,今天就分享这个漫剧工作流,提示词均已给出,按步骤即可轻松复刻!

完整工作流截图:

说明💡:节点看着多,其实搭建起来很简单。

分段展示:

01 搭建工作流📖

(1)登录扣子,创建一个工作流;

地址:https://www.coze.cn/home

(2)设置开始节点

input:漫剧主题,比如:龙门客栈,必填

api_key:插件任务

API_key获取地址:http://miheai.com/?share_id=15412,必填

(3)根据主题生成分镜剧本

添加一个大模型节点->重命名为根据主题生成分镜剧本>设置参数及提示词;

系统提示词:

🤖 系统提示词:国漫动作编剧导演【角色设定】 你是一位顶级国漫动作编剧兼分镜导演,擅长创作如《雾山五行》、《深海》般极具视觉冲击力的战斗场面。你的任务是根据用户输入的主题,创作一个 30秒、情节紧凑、逻辑完整且打斗异常激烈 的剧本。【剧本创作准则】叙事结构: 30秒内必须包含“突发遭遇-激烈交锋-高潮爆发-定格余韵”。动作密度: 每一秒都要有动作或环境反馈,严禁冗长的对峙。强调“龙珠式”的高频碰撞、瞬移、以及力量造成的环境崩坏。镜头语言: 剧本描述中需融入镜头指导(如:超大广角仰拍、冲击帧、跟随旋转镜头、纵深动态拉伸)。物理反馈: 打斗必须伴随环境破坏(如:地面崩塌、气浪震碎瓦片、水滴瞬间气化)。美学风格: 锁定“高品质国漫”风格。文字描述需带有画面感,强调冷暖光影对比、水墨粒子特效及飞白笔触感。【输出格式要求】 必须且仅输出两个核心文档:30秒高燃剧本:按时间段(如 00:00-00:05)划分,描述剧情及动作重点。分镜描述文档:一共 6 个分镜,每 5 秒一个分镜描述。格式:【分镜 X】场景名字:[XX] + 镜头角度 + 详细动作/特效描写 + 环境反馈。约束:动作必须连贯。分镜 N 的结束状态应是分镜 N+1 的起始状态。【示例参考逻辑】分镜描写应包含:[唯一地理中心] + [双人互动姿态] + [能量特效表现] + [背景变化]。

(4)根据分镜剧本生成参考图片提示词

添加一个大模型节点->重命名为生成参考图片提示词>设置参数及提示词;

系统提示词:

🤖 系统提示词:国漫资产视觉架构师【角色设定】 你是一位顶级的国漫视觉总监,擅长将文字剧本转化为极具张力的 AIGC 图像提示词。你的任务是分析剧本,提取核心角色与核心场景,并为每一个资产输出对应的、符合顶级国漫美学的绘画提示词。【核心构建原则】1:1 精准提取: 严格根据剧本中出现的角色数量和场景地点进行提取。输入多少个主要资产,就输出多少个 JSON 对象,严禁遗漏或擅自增加。人景分离逻辑: * 角色类: 强调人物特征、服装材质(如丝绸纹理、金属侵蚀)、核心动作姿态、专属能量特效。场景类: 严禁出现任何人物、剪影或人类肢体。必须通过建筑细节、环境破坏(如剑痕、碎石)、天气(如暴雨、圆月)及构图张力来传达叙事感。视觉美学规范: * 艺术形式: 融合泼墨写意笔触与硬核赛璐璐(Cel-shaded)风格。构图: 统一使用超大广角强透视、纵深大畸变、低角度仰拍,营造视觉吸入感。色彩: 使用高级国风配色(如:黛青、石青、赭石、月白、鎏金、暗丹红)。画质增强: 自动添加 8k resolution, masterpiece, cinematic lighting, high-end textures, ink wash splatter 等增强词。【输出格式要求】 必须且仅输出一个 JSON 格式的对象数组。每一条包含:名称: 资产的具体名字(标注是角色、生物或纯场景)。提示词: [风格基调] + [主体形象/建筑描写] + [核心动态/能量特效] + [环境细节渲染] + [极致光影/画质词]。【示例输出参考】JSON[ { "名称": "剑神:西门吹雪(角色)", "提示词": "顶级国漫写意风格, 2D赛璐璐结合水墨笔触, 西门吹雪。白色交领道袍, 材质纹理精细, 眼神冰冷如刃。周身缠绕焦墨笔触的剑气与深蓝色电弧粒子。超大广角仰拍, 强烈冷暖对比, 8k极致画质。" }, { "名称": "紫禁之巅脊梁(纯场景-无人物)", "提示词": "顶级古风国漫场景, 唯一的太和殿金色屋脊。琉璃瓦片在月光下折射冷冽光芒, 地面布满交错的剑痕与破碎瓦砾。背景是巨大的圆月与涌动的浓重水墨云海。超大广角强透视, 纵深大畸变, 无任何人物痕迹, 极致肃杀氛围。" }]

(5)参考图片数据整理;

添加一个代码节点->重命名为参考图片数据整理>设置参数;

(6)生成漫剧参考图片;

添加一个循环节点->重命名为生成漫剧参考图片>设置参数;

(7)分镜参考图片;

该节点需要添加第三方插件米核的【即梦图片生成】的【jimeng_generate_image】->重命名为分镜参考图片>设置参数;

(8)参考图片和名称对齐;

添加一个代码节点->重命名为参考图片和名称对齐>设置参数;

(9)分镜图片提示词;

添加一个大模型节点->重命名为分镜图片提示词>设置参数及提示词;

系统提示词:

🤖 系统提示词:国漫分镜视觉大师(关键帧版)【角色设定】 你是一位国漫顶级的视觉分镜大师。你的任务是将剧本和分镜描述转化为具有极端动态张力的、1:1 对应的单帧关键帧图片提示词。这些图片将作为 AI 视频生成的视觉锚点。【核心逻辑约束】1:1 镜像输出:严格遵循输入的分镜数量。用户输入几个分镜描述,你就仅输出几个对应的 JSON 对象。严禁合并或拆分分镜。唯一场景锚点:每一条提示词开头必须明确指出场景中唯一的地理中心坐标(例如:[场景中心:唯一的太和殿脊梁正中央]),严禁生成多余的地形或重复的建筑主体。二元对抗(必须互动):画面严禁出现角色单打独斗。必须详细描写双方的实时互动状态(如:兵刃激战碰撞、力量僵持角力、一方受击倒飞出的瞬间),通过两者的空间关系产生叙事感。视角与透视(视觉吸入感):统一采用超大广角强透视。通过极端的纵深大透视畸变、鱼眼效果或低角度仰拍,利用前景与远景的巨大比例差营造冲击力。顶级国漫美学:提示词必须锁定“顶级国漫写意风格”,包含词汇:墨色基底、飞白笔触、写意泼墨、宣纸纹理、高对比度冷暖对比、电影级画质。【输出格式要求】 必须严格以 JSON 数组格式输出,每个对象仅包含 名称 和 提示词 两个字段。【输出示例】JSON[ { "名称": "巅峰对撞", "提示词": "国风写意水墨激斗场景,[场景中心:唯一的太和殿脊梁中央]。超大广角强透视,纵深大透视畸变。西门吹雪与叶孤城在中心点正面对冲,双剑咬合迸发刺目的金白色冲击波,火花如墨滴般炸裂。配色:黛青、鎏金、暗丹红。墨色基底融合飞白笔触,写实写意交融,画面张力爆表,8k分辨率。" }, { "名称": "剑气横扫", "提示词": "顶级国漫对决关键帧,[场景中心:唯一的太和殿脊梁中央]。低角度仰拍,纵深大畸变。叶孤城侧身闪避,西门吹雪的黑色剑气如狂澜般斜向上方切开画面,背景的吻兽石雕由于余波震碎成齑粉。宣纸纹理细节丰富,极致冷暖对比,粒子特效拉满,电影级构图。" }]

(10)分镜图片数据整理;

添加一个代码节点->重命名为分镜图片数据整理>设置参数及提示词;

(11)生成分镜图片;

添加一个循环节点->重命名为生成分镜图片>设置参数;

(12)提取参考图片数组;

添加一个大模型节点->重命名为提取参考图片数组>设置参数及提示词;

(13)选择器;

该节点是添加一个选择器节点来判断是否能成功提取参考图片

添加一个选择器节点->设置参数及提示词;

(14)生成分镜图片;

该节点是如果有参考图片,根据参考图片来生成分镜图片

该节点需要添加第三方插件米核的【即梦图片生成】的【jimeng_generate_image】->设置参数;

(15)生成分镜图片;

该节点是如果取不到参考图片,就走该分支。

(16)变量聚合;

该节点作用是无论走哪条分支,由变量聚合来判断。

添加一个变量聚合节点->设置参数;

(17)尾帧数组;

该节点作用是制作视频视频尾帧。

添加一个代码节点->设置参数;

(18)分镜视频提示词;

该节点作用是制作分镜视频提示词。

添加一个大模型节点->重命名为分镜视频提示词>设置参数及提示词;

系统提示词:

🎬 系统提示词:国漫动作导演【角色设定】 你是一位顶级国漫动作导演兼 AI 视频算法专家。你的任务是根据“剧本”和“分镜图片提示词”,为每一个分镜生成一段具有龙珠式打击感和极高流畅度的视频生成提示词。【核心衔接逻辑】1:1 镜像输出:严格遵循输入的分镜数量。输入多少个分镜图片提示词,就对应输出多少个视频提示词,严禁合并或遗漏。分类衔接策略(关键优化):非末尾分镜(1 到 N-1):执行“时空缝合”。分析当前帧 N到下一帧 N+1的位移。必须填充中间的动作轨迹(如:冲刺路径、武器挥砍过程),确保丝滑运动到下一张图的起始状态。末尾分镜(最后一个):执行“终极定格”。不再考虑尾帧衔接。重点描述该动作如何彻底完成、能量如何最终爆发或消散、以及战斗造成的最终环境破坏(如:建筑崩塌后的定格、角色收剑的残影、画面随烟尘淡出)。动作互动逻辑:禁止角色各自表演。必须描述双方的对攻反馈(如:一方重击,另一方格挡受力后退,地面随之崩裂)。物理反馈与破坏:强调近大远小的动态拉伸。环境必须随动作产生实时破坏(如:琉璃瓦崩碎、空气感震荡、水墨粒子狂散)。【输出格式要求】必须严格以 JSON 数组格式输出,每个对象包含 名称 和 视频提示词 两个字段。【输出示例】[ { "名称": "视频分镜 1(连接图片1与2)", "视频提示词": "【中继逻辑:突进至对撞】。视频起于起始帧的蓄力,西门吹雪蹬地瞬间瓦片炸裂,化作黑色墨痕极速瞬移。镜头随其动作进行纵深拉伸,捕捉与叶孤城双剑撞击的瞬间。碰撞点触发黑白冲击帧与金色火花,动作极其丝滑地导向下一帧的角力位。全程伴随水墨飞白特效。" }, { "名称": "视频分镜 6(最终分镜:能量终焉)", "视频提示词": "【闭幕逻辑:终极爆发与定格】。承接最后一帧的对撞点,两股剑意发生核爆般的塌缩。镜头剧烈震动并快速拉远,呈现整座大殿顶端彻底瓦解、化为漫天齑粉的动态。能量光芒逐渐收敛,西门吹雪与叶孤城在废墟中完成最后的错身定格。画面背景融入泼墨晕染特效,随动作余韵缓慢淡入静止状态。" }]

(19)提取视频提示词;

该节点作用是提取视频提示词。

添加一个代码节点->重命名为提取视频提示词>设置参数;

(20)循环;

该节点作用是循环节点生成视频。

添加一个循环节点->设置参数;

(21)即梦生成视频;

该节点作用是循环节点生成视频。

该节点需要添加第三方插件米核的【即梦视频生成】【imeng_generate_video】->设置参数;

(22)创建剪映草稿;

该节点作用是创建草稿。

该节点需要添加第三方插件米核的【剪映小助手】【create_draft】->设置参数;

(23)根据视频创建时间线;

该节点需要添加第三方插件米核的【剪映小助手】【video_timelines】->设置参数;

(24)创建视频数据;

根据时间线制作视频数据

该节点需要添加第三方插件米核的【剪映小助手】【video_infos】->设置参数;

(25)添加视频;

根据视频数据添加视频

该节点需要添加第三方插件米核的【剪映小助手】【add_videos】->设置参数;

(26)结束;

将生成的视频打印输出

02 测试工作流🔍

(1)输入一个主题(如山海经、龙门客栈等),点击试运行,会得到一个草稿ID;

(2)将上一步中的的草稿ID输入剪映小助手,点击创建草稿;

提示💡:复制的草稿ID不要带引号

(3)打开剪映会看到一个黑色的草稿,打开就是完整作品了,可直接导出;

03 结语✅

以上就是AI漫剧工作流的全部流程了,适合对漫剧感兴趣的同学。

本工作流使用到的完整提示词,感兴趣的朋友可以来个一键三连(必须动作)后评论区留言“AI漫剧”,并且后台私信“AI漫剧”获取。

本文的分享就到这里,如果您觉得有收获的话,可以给个一键三连,您的鼓励是咕咕姐持续输出的最大动力。

最后,如果你觉得这篇文章不错,记得点赞、转发、推荐或留言互动下,这样就不会错过下一篇文章了!

Read more

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

用OpenClaw做飞书ai办公机器人(含本地ollama模型接入+自动安装skills+数据可视化)

执行git clone https://github.com/openclaw/openclaw克隆项目,执行cd openclaw进入项目 执行node --version看看node的版本是否大于等于22(没有node.js需自行安装),再执行npm install -g pnpm安装作为包管理器,并执行pnpm install安装依赖 首次执行pnpm ui:build构建 Web UI(会先安装 ui/ 目录的依赖) 执行pnpm build构建主程序 执行pnpm openclaw onboard --install-daemon运行配置向导(安装守护进程),完成初始化 按键盘右箭头选择Yes,同样Yes 任选一个模型提供商都行,没有对应的提供商的密钥可以跳过,如果是本地模型选vLLM(需用vLLM框架启动模型,有性能优势,但原生vLLM仅完全支持Linux的cuda)、Custom Provider(可以连接任何 OpenAI 或 Anthropic 兼容的端点,

75元!复刻Moji 2.0 小智 AI 桌面机器人,基于乐鑫ESP32开发板,内置DeepSeek、Qwen大模型

文末联系小编,获取项目源码 Moji 2.0 是一个栖息在你桌面上的“有灵魂的伴侣”,采用乐鑫 ESP32-C5开发板,配置 1.5寸 360x360 高清屏,FPC 插接方式,支持 5G Wi-Fi 6 极速连接,内置小智 AI 2.0 系统,主要充当智能电子宠物的角色,在你工作学习枯燥时,通过圆形屏幕上的动态表情包卖萌解压,提供情绪陪伴;同时它也是功能强大的AI 语音助手,支持像真人一样流畅的连续对话,随时为你查询天气、解答疑惑或闲聊解闷,非常适合作为极客桌搭或嵌入式学习的开源平台。 🛠️ 装配进化 告别手焊屏幕的噩梦。全新设计的 FPC 插座连接,排线一插即锁,将复刻门槛降至最低。 🚀 性能进化 主控升级为 ESP32-C5。支持 5GHz Wi-Fi 6,

AI电话机器人实战:从零构建高并发语音交互系统

快速体验 在开始今天关于 AI电话机器人实战:从零构建高并发语音交互系统 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI电话机器人实战:从零构建高并发语音交互系统 传统IVR系统的痛点分析 传统呼叫中心系统开发中,我们常遇到几个典型问题: 1. 开发周期长:从需求分析到部署上线往往需要数月,每次业务规则变更都需要重新录制语音流程 2. 扩展性差:单机处理能力有限,

Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家

Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 ethereum_addresses 的鸿蒙化适配指南 - 掌控区块链地址资产、精密校验治理实战、鸿蒙级 Web3 专家 在鸿蒙跨平台应用执行高级区块链身份管理与多维以太坊地址资产指控(如构建一个支持全场景秒级交互的鸿蒙大型全量钱包中枢、处理海量 Ethereum Address Payloads 的语义认领或是实现一个具备极致指控能力的资产管理后台地址审计中心)时,如果仅仅依赖官方的基础 Regular Expression 或者是极其繁琐的手动 Checksum 计算,极易在处理“由于大小写敏感导致的资产认领偏移”、“高频地址校验下的认领假死”或“由于多语言环境导致的符号解析冲突死结”时陷入研发代码区块链逻辑崩溃死循环。如果你追求的是一种完全对齐现代 Ethereum 标准、支持全量高度可定制校验(Type-safe Web3)且具备极致指控确定性的方案。今天我们要深度解析的 ethereum_addresses——一个专注于解决“地址