2026年,AI短剧正在爆发:一款开源工具带你从0到1做短剧

2026年,AI短剧正在爆发:一款开源工具带你从0到1做短剧

大家好,我是小阳哥。

2026年,一个新的风口正在成型——AI短剧。

今天给大家推荐一个开源的 AI短剧神器。工具是开源免费的,可以自己部署,也可以直接下载可执行文件运行。

工具把 AI 短剧拆解成了一步步可执行的流水线:

小说 → 大纲 → 剧本 → 分镜 → 视频

而且是多 Agent 协作生成,非常接近真实影视制作流程。

接下来,一步步带大家看下如何使用。(工具地址放在文末了


一、基础设置

在开始制作前,我们需要设置AI 模型。共需要3类
  • 文本模型(写剧情)
  • 图像模型(生成角色/场景/分镜图片)
  • 视频模型(生成短剧)

这里面基本支持了市面上所有的主流模型

为每个 agent 设置对应的模型
支持修改每个agent的内置提示词

二、创作流程(核心流程)

1. 新建项目

字段包括:项目名称、小说类型、时代画风、影片比例、小说简介

2. 上传小说内容

支持 txt、docx 格式上传,支持直接粘贴文本

自动识别章节内容


3. 自动生成大纲

故事师:生成故事线

进入大纲管理,在对话框输入开始,故事师 Agent 开始工作,生成故事线

导演:审核故事线

故事线生成后,导演 Agent 会介入进行评分并审核。

大纲师:生成小说大纲

输入集数和每集分钟数,来根据故事线生成大纲。

资产生成

这步主要是自动提取小说涉及的:角色、场景、道具等提示词


4. 资产生成

上一部分,自动生成了角色、场景、道具的提示词,这边可以管理这些资产提示词,并批量生成相关图片。

(1)角色。生成角色的四视图

(2)场景

(3)道具


5. 剧本 & 分镜 & 视频生成(重点)

剧本生成
分镜生成

生成分镜描述和分镜图

生成分镜视频
视频处理与导出

到这里,短剧涉及的相关视频就基本生成了

接下来,就是需要对所有视频进行剪辑合成。这一步目前最好是导出到剪映这类专业剪辑软件处理。


这个工具真正的价值

这个工具并没有说傻瓜式的让你导入小说就能一键生成可以使用的 AI短剧。因为目前的技术也确实还没法做到。

最大的价值是把 AI 短剧拆解成一个个流水线节点,并提升每个节点的效率和效果,并且每个节点都有记录、可以单独执行,哪个地方效果不好,可以单独修改执行。

最后:2026 会是 AI短剧爆发年,感兴趣可以持续关注小阳哥。

【软件包地址】可以WX关注【小阳哥AI工具箱】,后台回复【AI短剧】获取

Read more

前端权限管理实现:别让用户看到不该看的东西!

前端权限管理实现:别让用户看到不该看的东西! 毒舌时刻 权限管理?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为随便加个if语句就能实现权限管理?别做梦了!到时候你会发现,权限逻辑分散在各个组件中,难以维护。 你以为前端权限管理就是最终的安全保障?别天真了!前端权限管理只是为了提高用户体验,真正的安全保障在后端。还有那些所谓的权限管理库,看起来高大上,用起来却各种问题。 为什么你需要这个 1. 用户体验:良好的权限管理可以为不同角色的用户提供不同的界面,提高用户体验。 2. 安全性:前端权限管理可以防止用户访问不该访问的功能,提高应用的安全性。 3. 代码组织:集中的权限管理可以使代码结构更清晰,便于维护。 4. 可扩展性:良好的权限管理设计可以方便地添加新的角色和权限。 5. 合规性:某些行业和地区要求应用必须实现严格的权限控制。 反面教材 // 1. 分散的权限逻辑 function AdminPanel() { const user = useUser(); if (user.role !== 'admin'

微调前必读:gpt-oss-20b-WEBUI环境准备全解析

微调前必读:gpt-oss-20b-WEBUI环境准备全解析 你正打算对 gpt-oss-20b 做微调,却卡在了第一步——环境跑不起来?网页打不开?显存报错?模型加载失败?别急,这不是你的问题,而是绝大多数人在接触这个镜像时的真实状态。本文不讲原理、不堆参数,只聚焦一个目标:让你的 gpt-oss-20b-WEBUI 环境稳稳启动、顺利接入、真正可用。所有操作均基于真实部署经验,跳过冗余步骤,直击关键瓶颈。 1. 镜像本质:它不是Ollama,也不是普通WebUI gpt-oss-20b-WEBUI 这个名字容易让人误解——它既不是 Ollama 封装版,也不依赖 Open WebUI 或 Text Generation WebUI(oobabooga)。它的底层是 vLLM + FastAPI + Gradio 的轻量组合,专为 gpt-oss-20b 模型优化推理而构建。这意味着:

Dify Web 前端二次开发(隐藏探索功能 + 替换 Logo)

核心修改内容 1. 隐藏导航栏「探索」功能(图标 + 文字按钮); 2. 将默认 Dify Logo 替换为自定义 FDAI Logo(PNG 格式)。 (一)隐藏「探索」功能完整过程 1. 定位目标组件 探索功能对应的组件文件路径:web/app/components/header/explore-nav/index.tsx(组件名:ExploreNav),该组件被嵌套在 Header 组件中渲染,无需修改布局文件 app/(commonlayout)/layout.tsx。 2. 首次尝试:仅删除图标(未彻底隐藏) * 操作:删除组件内图标渲染代码 { activated ? <RiPlanetFill />

【AI论文】OmniInsert:借助扩散变换器模型实现任意参考对象的无掩码视频插入

【AI论文】OmniInsert:借助扩散变换器模型实现任意参考对象的无掩码视频插入

摘要:近期基于扩散模型在视频插入领域取得的进展令人瞩目。然而,现有方法依赖复杂的控制信号,却难以保证主体一致性,限制了其实际应用。本文聚焦于无掩码视频插入任务,旨在解决三大关键挑战:数据稀缺、主体与场景平衡以及插入内容的和谐融合。为应对数据稀缺问题,我们提出了一种新型数据流水线InsertPipe,可自动构建多样化的跨配对数据集。基于该数据流水线,我们开发了OmniInsert——一种新颖的统一框架,支持从单一或多个主体参考中实现无掩码视频插入。具体而言,为保持主体与场景的平衡,我们引入了一种简单而有效的条件特定特征注入机制,以明确注入多源条件,并提出了一种新型渐进式训练策略,使模型能够平衡来自主体和源视频的特征注入。同时,我们设计了主体聚焦损失函数,以提升主体的细节表现。为进一步增强插入内容的和谐融合,我们提出了插入偏好优化方法,通过模拟人类偏好来优化模型,并在参考过程中引入上下文感知重表述模块,使主体无缝融入原始场景。为解决该领域缺乏基准测试的问题,我们推出了InsertBench——一个包含多样化场景和精心挑选主体的综合基准测试集。在InsertBench上的评估表明,OmniI