【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

【保姆级教程】AI图生图+视频生成完整工作流(附提示词+参数表)

目录


一、前言

最近AI视频生成技术火得一塌糊涂,从Runway Gen-2到Stable Diffusion的AnimateDiff插件,静态图片“动起来”已经不再是难题。但很多初学者在实操时会遇到各种坑:视频闪烁、人物变形、运动不自然……

本文将以Stable Diffusion WebUI + AnimateDiff为主线,详细拆解从图生图(优化图片)图生视频的全流程操作,并附上可直接复制的提示词和参数表。无论你是刚入门的小白,还是想提升效率的老手,这篇教程都能帮你快速上手。


二、环境搭建与工具选择

2.1 硬件要求

  • 显卡:NVIDIA显卡,显存建议8GB以上(6GB也可运行,但帧数需调低)
  • 内存:16GB+
  • 系统:Windows 10/11(Linux也可,本文以Windows为例)

2.2 软件工具

工具说明获取方式
Stable Diffusion WebUI秋叶整合包或官方源码B站秋叶教程 或 GitHub
AnimateDiff 插件视频生成核心插件WebUI扩展中搜索“AnimateDiff”安装
ControlNet 插件可选,用于控制画面一致性WebUI扩展中搜索“ControlNet”安装
Python3.10.x整合包自带

2.3 模型准备

  • 底模:推荐写实风格 majicMIX realistic 或二次元风格 Anything V5(可在Civitai下载)
  • 运动模块:AnimateDiff官方提供的 mm_sd_v15.ckpt(插件会自动下载,或手动放入 models/AnimateDiff

三、第一步:生成高质量基础图片(图生图)

视频的质量很大程度上取决于首帧图片的质量。如果直接用网上随便找的图,很可能因为风格不统一或细节缺失导致生成失败。因此,建议先用图生图(或文生图)生成一张满意的图片作为起点。

3.1 模型选择

  • 写实人像majicMIX realisticChilloutMix
  • 二次元Anything V5Counterfeit
  • 风景/建筑Realistic VisionDreamShaper

3.2 提示词编写

提示词分为正向和负向,建议将关键描述词放在前面,用 (keyword:权重) 加强。

正向提示词示例(古风美女):

(masterpiece, best quality:1.2), 1girl, solo, chinese clothes, hanfu, looking at viewer, standing, garden, flowers, trees, soft lighting, detailed face, highly detailed skin, (wind blowing hair and clothes:1.1) 

负向提示词(通用反咒):

nsfw, bad hands, bad fingers, missing fingers, extra fingers, bad face, bad eyes, bad proportions, ugly, duplicate, morbid, mutilated, tranny, trans, deformed, blurry, low quality, worst quality, signature, watermark, username, artist name 

3.3 参数设置参考

参数推荐值说明
采样器 (Sampler)DPM++ 2M Karras生成质量与速度均衡
步数 (Steps)30太少细节不足,太多变化不大
CFG Scale7提示词相关性,过高色彩过饱和
宽度/高度512x768竖构图更适合短视频,显存友好
种子 (Seed)-1随机生成,可固定种子复现效果

生成满意图片后,保存到本地(建议PNG格式,保留元数据)。


四、第二步:图生视频核心操作

4.1 AnimateDiff插件安装与配置

  1. 在WebUI中点击 “扩展” -> “可用” -> 搜索 AnimateDiff -> 安装。
  2. 重启WebUI后,在文生图/图生图界面下方会出现 AnimateDiff 折叠面板。
  3. 第一次使用时,需要下载运动模块。点击面板中的 “下载运动模块”,选择 mm_sd_v15.ckpt 下载。若下载慢,可手动下载后放入 models/AnimateDiff 文件夹。

4.2 运动参数详解

切换到 图生图 界面,加载刚才生成的图片,展开 AnimateDiff 面板,设置如下:

参数推荐值说明
启用必须勾选
运动模块mm_sd_v15.ckpt已下载的模块
帧数 (Number of frames)16(测试)→ 32(成品)帧数越多视频越长,显存占用越大
帧率 (FPS)8生成时的预览帧率,后期可用软件补帧
上下文批大小 (Context batch size)16同时处理的帧数,越大越稳定,但显存要求高
运动参数 (Motion parameters)见下表控制镜头运动

运动参数详解表:

参数含义推荐范围示例
平移 X (Translation X)水平移动-2 ~ 2X:0 不动,X:1 每秒右移1像素
平移 Y (Translation Y)垂直移动-2 ~ 2Y:0.5 每秒上移0.5像素
旋转 (Rotation)画面旋转-0.5 ~ 0.5通常设为0
缩放 (Scale)镜头推拉0.98 ~ 1.02Scale:1.01 每秒放大1%,Scale:0.99 缩小

示例组合: 缓慢上移 + 轻微放大
Translation X: 0, Translation Y: 0.5, Rotation: 0, Scale: 1.005

注意: 运动幅度不宜过大,否则人物容易变形。新手建议先尝试单一方向微动。

4.3 生成视频与后处理

设置好参数后,点击 “生成”。生成完毕后,在输出图片区域会显示一个GIF预览。点击GIF右下角的文件夹图标,可以找到生成的MP4视频文件(位于 outputs/img2img-images/日期 下)。

如果需要高清视频,可以使用 Topaz Video AI 进行补帧(将8fps提升到24fps)和放大分辨率。


五、实战案例与提示词解析

案例1:写实人像(镜头缓慢上移)

基础图提示词:

正向:(photorealistic:1.3), (masterpiece:1.2), 1girl, detailed face, perfect eyes, soft skin, natural lighting, depth of field, looking at viewer, wearing sweater, indoors, cozy atmosphere 负向:nsfw, bad hands, bad anatomy, ugly, deformed, disfigured, poorly drawn face, bad proportions, extra limbs, cloned face, disfigured, gross proportions, malformed limbs, missing arms, missing legs, extra arms, extra legs, fused fingers, too many fingers, long neck, username, watermark, signature 

运动参数:Translation Y: 0.5, Scale: 1.0

案例2:风景(镜头缓缓拉远)

基础图提示词:

正向:(masterpiece, best quality), landscape, mountains, river, waterfall, forest, autumn colors, sunny day, blue sky, clouds, highly detailed, cinematic lighting, 8k, photorealistic 负向:nsfw, low quality, worst quality, blurry, fog, text, signature, watermark, username, artist name, ugly, deformed, bad anatomy, bad proportions 

运动参数:Translation Y: 0, Scale: 0.99(每秒缩小1%,镜头拉远)


六、常见问题与解决方案(避坑指南)

Q1:生成的视频闪烁严重

原因: 运动幅度过大,或上下文批大小太小。
解决: 降低平移/缩放值,增大上下文批大小至24;开启ControlNet Tile模型(预处理选择tile_resample)可以增强一致性。

Q2:人物五官扭曲/崩坏

原因: 基础图面部细节不足,或运动过程中面部出现错位。
解决:

  • 在负向提示词中强化“bad face, distorted face”。
  • 使用 ADetailer 插件(人脸修复)对每一帧进行后处理。
  • 降低运动幅度,或使用逐帧生成模式(需更高级设置)。

Q3:视频长度太短

原因: 帧数设置太少。
解决: 增加帧数,但注意显存占用。16帧约1秒(8fps),32帧约2秒。可以生成多段后用剪辑软件拼接,或使用 EbSynth 等工具进行关键帧插值。

Q4:显存不足(CUDA out of memory)

原因: 帧数/上下文批大小过大,或分辨率太高。
解决: 降低分辨率(如384x512),减少帧数,减小上下文批大小,关闭其他占用显存的应用。


七、资源下载

为了方便大家直接上手,我将常用的模型配置文件、提示词模板、参数预设整理到了飞书文档中,需要的自取(链接永久有效):

👉 AI图生图生视频完整资料库(含提示词)

文档内容包括:

  • 实战提示词
  • 常见参数设置对照表(Excel格式)
  • 运动参数预设文件

文档部分内容展示

在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

八、结语

AI视频生成技术日新月异,但万变不离其宗:高质量的基础图片 + 合理的运动参数 = 流畅的视频。希望这篇教程能帮助你打开AI视频/图片创作的大门。

如果觉得本文对你有帮助,欢迎点赞、收藏、评论,让更多需要的人看到。有问题可以在评论区留言,我会尽力解答。后续还会更新更多AIGC实战技巧,点个关注不迷路!


版权声明:转载请附上原文出处链接和本声明。

Read more

Android端Whisper中文语音识别实战:从模型部署到性能优化

快速体验 在开始今天关于 Android端Whisper中文语音识别实战:从模型部署到性能优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 在Android设备上实现高效的语音识别一直是个挑战,尤其是处理中文这种复杂的语言。最近我尝试将OpenAI的Whisper模型集成到Android应用中,过程中遇到了不少坑,也总结了一些优化经验,分享给大家。 移动端语音识别的特殊挑战 1. 算力限制:相比服务器,手机CPU和GPU性能有限,特别是低端设备。

告别复杂操作:灵感画廊极简AI绘画体验

告别复杂操作:灵感画廊极简AI绘画体验 "见微知著,凝光成影。将梦境的碎片,凝结为永恒的视觉诗篇。" 你是否曾经被复杂的AI绘画工具劝退?参数太多、界面太乱、学习成本太高...现在,这一切都将成为过去。灵感画廊(Atelier of Light and Shadow)基于Stable Diffusion XL 1.0打造,却彻底摒弃了工业化的复杂界面,为你提供一个如艺术沙龙般恬静的创作空间。 1. 为什么选择灵感画廊? 传统的AI绘画工具往往让人望而生畏。密密麻麻的参数滑块、晦涩难懂的技术术语、需要反复调试的复杂设置...这些都不是创作者想要的。 灵感画廊完全不同。它相信:真正的创作应该专注于灵感本身,而不是技术细节。 这里没有"提示词",只有"梦境描述";没有"反向词"

ClawdBot效果展示:语音消息→Whisper转写→英译日→Telegram推送全链路

ClawdBot效果展示:语音消息→Whisper转写→英译日→Telegram推送全链路 你有没有试过在 Telegram 群里听一段英语语音,想立刻知道它在说什么,又不想手动点开翻译软件、复制粘贴、再切回群聊?或者收到朋友发来的日语语音,却只能干瞪眼? ClawdBot 不是概念演示,也不是半成品 Demo。它是一套真正跑在你本地设备上的「端到端多模态翻译流水线」——从 Telegram 收到一条语音,到你在手机上看到准确的日语文字回复,全程无需上传云端、不依赖境外服务、不经过第三方服务器,耗时不到 3 秒。 这不是科幻设定,而是今天就能搭起来的真实体验。 1. 全链路效果实测:一条语音,三秒落地 我们不做抽象描述,直接看真实操作流。以下所有步骤均在一台普通笔记本(i5-1135G7 + 16GB 内存 + RTX3050)上完成,模型全部本地运行,无网络请求穿透防火墙。 1.1 场景还原:群聊中的一条英语语音

Matlab报错找不到编译器?5分钟搞定MinGW-w64 C/C++环境配置(附环境变量设置)

Matlab报错找不到编译器?5分钟搞定MinGW-w64 C/C++环境配置(附环境变量设置) 最近在尝试用Matlab调用一些C/C++写的算法库,或者想编译一个别人分享的.mex文件时,是不是经常在命令行里敲下 mex -setup 后,迎面而来的就是一个冰冷的报错窗口?"未找到支持的编译器或 SDK"——这句话对很多刚接触Matlab混合编程的朋友来说,简直像一盆冷水。别担心,这几乎是每个Matlab用户进阶路上的必经之坎。问题的核心,往往不在于Matlab本身,而在于你的电脑缺少一个它认可的“翻译官”:C/C++编译器。对于Windows用户,官方推荐且免费的解决方案就是MinGW-w64。这篇文章,就是为你准备的从报错到成功配置的完整路线图。我们不只告诉你步骤,更会解释每一步背后的逻辑,并附上那些容易踩坑的细节和验证方法,目标是让你一次配置,终身受益。 1. 理解问题根源:为什么Matlab需要单独的编译器? 在深入操作之前,花几分钟搞清楚“为什么”,能帮你避免未来很多“是什么”的困惑。Matlab本身是一个强大的解释型语言环境,