免费开源的AI短剧工具介绍--马上短剧

免费开源的AI短剧工具介绍--马上短剧

马上短剧生成系统,只需一个主题词,自动生成剧本、自动生成分镜、自动生成图片、自动生成视频,需要多少集,自由设定,实现角色、环境、声音的一致性。

这是个开源且免费的短剧生产力工具!非常英语出品

开源地址:https://github.com/frank36512/horseplay

单文件打包exe下载地址:https://pan.quark.cn/s/becdf8427ee9

使用python开发,只需要打包源码成为exe文件就可以直接运行,不需要下载依赖,也不需要任何运行库。可以直接下载打包好的exe文件,就可以用,甚至无需安装、无需注册。

📖 简介

马上短剧生成系统 (Horseplay) 是一款旨在革新短剧创作流程的综合性工具。通过集成最先进的 AI 模型(涵盖剧本创作、角色设计、图像生成、视频合成及语音合成),工具致力于赋能创作者,以极高的效率生产高质量的内容。

无论您是独立创作者还是制作团队,本工具都能帮助您保持角色一致性、生成动态的视觉叙事,并实现音画的完美同步。

免费开源的马上短剧生成系统生成的短视频


✨ 核心功能

📝 智能剧本管理

支持输出主题词生成短剧剧本,也支持输出小说或文章、段子改编成短剧,这个功能很赞。

  • AI 辅助写作: 利用强大的大语言模型(OpenAI, DeepSeek)生成剧本、对话和场景描述,自动生成分镜。
  • 格式标准化: 自动将剧本格式化为行业标准的剧本格式。
  • 分集管理:想生成几集就生成几集,只需要你输入一个数字。

🎨 双一致性系统(角色一致性和环境一致性)

  • 档案管理: 定义详细的角色特征、外貌和背景故事。
  • 参考图管理: 上传并管理参考图像,确保生成媒体中的视觉一致性。
  • 不仅实现角色一致性,也实现了环境一致性,让你不再抽卡,节省大量费用。

🎥 AI 视频生成

  • 多模型支持: 集成顶尖视频生成模型,如 Google VeoSoraRunway, 和 Stable Video Diffusion
  • 文/图生视频: 直接根据剧本描述或分镜图像生成视频。

🗣️ 音频合成

  • TTS 集成: 支持 ElevenLabsOpenAI TTS, 和 Edge TTS,生成逼真的角色语音。
  • 音效生成: 自动生成符合场景氛围的背景音乐和音效。
  • 自动配音:这个通过调用AI接口,根据自动生成高质量、富有感情的对话或旁白。
  • 声音一致性:通过内置参数调优,实现声音一致性。

🎬 可视化分镜

  • 场景可视化: 使用 DALL-E 3 或 Stable Diffusion 将剧本场景转化为可视化分镜。
  • 镜头规划: 在视频生成前规划摄像机角度和运镜。
  • 分镜参数个性化:内置多种分镜参数,简单方便,提升视频可控性。

🛠️ 技术栈

  • 语言: Python 3.10+
  • GUI 框架: PyQt6 (现代且响应迅速的界面)
  • AI 模型与 API:
    • LLM: OpenAI GPT-4, DeepSeek
    • 图像: DALL-E 3, Stable Diffusion
    • 视频: Google Veo, OpenAI Sora, Runway Gen-2/3
    • 音频: OpenAI TTS, ElevenLabs
  • 媒体处理: FFmpeg, OpenCV, Pydub
  • 数据管理: 基于 JSON 的项目结构

📂 项目结构

e:\play_tool\ ├── src/ # 源代码 │ ├── ui/ # 用户界面 (PyQt6) │ ├── core/ # 核心业务逻辑 (剧本, 角色) │ ├── ai_engine/ # AI 引擎接口 (LLM, 图像, 视频, 音频) │ └── database/ # 数据持久化 ├── resources/ # 资源与配置 │ ├── config/ # 配置文件 │ ├── projects/ # 用户项目 (Git 忽略) │ └── scenes/ # 场景资源 ├── .venv/ # 虚拟环境 ├── requirements.txt # 依赖列表 └── main.py # 启动入口 

🚀 快速开始

前置要求

  • Python 3.10+: 确保安装了 Python 3.10 或以上版本。
  • FFmpeg: 必须安装 FFmpeg 并添加到系统 PATH 环境变量中。

安装步骤

  1. 克隆仓库:git clone https://github.com/frank36512/horseplay.git cd horseplay
  2. 创建虚拟环境:# Windows python -m venv .venv .venv\Scripts\activate # Linux/macOS python3 -m venv .venv source .venv/bin/activate
  3. 安装依赖:pip install -r requirements.txt

配置指南

  1. 设置配置文件: 复制示例配置文件以创建本地配置。# Windows copy resources\config\config.example.json resources\config\config.json # Linux/macOS cp resources/config/config.example.json resources/config/config.json
  2. 添加 API 密钥: 打开 resources/config/config.json 并填入您计划使用的服务(OpenAI, ElevenLabs, Google 等)的 API 密钥。

运行应用

使用以下命令启动应用程序:

python src/main.py


🗺️ 开发进度

  •  第一阶段:基础建设 - 基础 UI、项目管理、剧本编辑器。
  •  第二阶段:AI 核心 - 深度集成 LLM 用于剧本创作,以及图像生成用于分镜。
  •  第三阶段:视频合成 - 从分镜生成连贯视频片段的流水线。
  •  第四阶段:音频与同步 - 口型同步技术(Wav2Lip)和自动混音。
  •  第五阶段:打磨 - 导出通用视频格式,时间轴编辑功能。

 开源地址:https://github.com/frank36512/horseplay

单文件打包exe下载地址:https://pan.quark.cn/s/becdf8427ee9

Read more

从 0 到 1 玩转 ClaudeCode:Figma-MCP 前端代码 1:1 还原 UI 设计全流程

ClaudeCode 与 Figma-MCP 简介 ClaudeCode 是 Anthropic 推出的 AI 代码生成工具,擅长将设计稿转换为前端代码。Figma-MCP(Minimum Code Principle)指通过最小代码原则实现高保真 UI 还原,适用于 Vue/React 等现代框架。 环境准备 Figma 设计稿检查 * 确保设计稿使用 Auto Layout 布局,标注间距、字体、颜色等设计 Token。 * 导出必要的 SVG/PNG 资源,检查图层命名规范(如 btn_primary)。 开发环境配置 * 安装 Claude 插件或访问官方 Playground。 初始化前端项目(示例为 Vue3 + TypeScript)

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解 1. 引言 随着多模态大模型在视觉理解、语言生成和跨模态推理能力上的飞速发展,阿里云推出的 Qwen3-VL 系列模型已成为当前最具竞争力的视觉-语言模型之一。其最新版本不仅在文本与图像融合理解上达到新高度,更在视频分析、GUI代理操作、长上下文建模等方面实现了突破性进展。 对于开发者和研究者而言,如何高效部署并充分发挥 Qwen3-VL 的性能,成为落地应用的关键挑战。本文聚焦于 Qwen3-VL-WEBUI 的本地化部署实践,重点解析基于单张 NVIDIA RTX 4090D 显卡的最优算力配置方案,涵盖环境准备、资源调度、推理优化等核心环节,帮助用户以最低成本实现高性能多模态推理。 本方案适用于希望在消费级硬件上运行 Qwen3-VL-4B-Instruct 模型的开发者,尤其适合个人研究、原型开发和轻量级产品集成场景。 2. Qwen3-VL-WEBUI 核心特性与架构解析 2.1 模型能力全景 Qwen3-VL 是 Qwen 系列中首个真正意义上的“视觉代理”(Visual Agent),

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

目录 【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键 一、求其外,善其内 1、坚持出发点正确的博文写作 2、博文更新对我心态的淬炼 3、社区交流对我视野的启发 4、向外拓展,反哺内修 二、陷入前端则前端死,跳出前端则前端活 1、从不务正业到泛前端 2、从泛前端到大前端,从有形到无形 三、秋招多少事 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40%

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40% 你是不是也遇到过这种情况:好不容易找到一个性能强大的大模型,比如Qwen3-32B,结果一部署就发现显存不够用,直接报错“Out of Memory”?看着那动辄几十GB的显存需求,再看看自己有限的显卡资源,是不是感觉心都凉了半截? 别急着放弃。今天我就来分享一个实战技巧——通过量化压缩技术,让你在有限的硬件资源上,也能流畅运行Qwen3-32B这样的“大块头”。经过实测,这个方法能让模型显存占用减少40%以上,而性能损失却微乎其微。 1. 为什么Qwen3-32B会“吃”掉那么多显存? 在开始动手之前,我们先得搞清楚问题出在哪。Qwen3-32B是一个拥有320亿参数的庞然大物,它的“大”主要体现在两个方面: 1.1 参数规模带来的直接负担 模型参数越多,需要存储的数据量就越大。Qwen3-32B的320亿参数,如果都用32位浮点数(FP32)来存储,光是参数本身就需要大约128GB的存储空间。这还没算上推理过程中需要的中间计算结果(激活值)和优化器状态。 1.2 推理过程中的内存开销 模型在运行时,