Stable Diffusion 本地部署与使用教程
前言
Stable Diffusion(简称 SD)是一种基于扩散模型的生成式人工智能技术,能够根据文本描述生成高质量的图像。WebUI(Web User Interface)是社区开发者 AUTOMATIC1111 维护的开源图形界面,提供了便捷的操作方式,无需编写代码即可控制模型生成图片。为了降低环境配置门槛,本文介绍如何使用整合包进行本地化部署,适合初学者快速上手 AI 绘画创作。
一、硬件与环境要求
在开始安装之前,请确保您的计算机满足以下基本要求:
- 操作系统:Windows 10/11 或 Linux。
- 显卡(GPU):建议使用 NVIDIA 显卡,显存至少 4GB(推荐 6GB 以上),支持 CUDA 加速。
- 内存(RAM):建议 16GB 或以上。
- 硬盘空间:预留 100GB~200GB 空间用于存储模型文件及生成的图片。
- 网络环境:首次运行可能需要下载部分依赖库,需保持网络连接。
二、核心概念解析
理解以下组件有助于更好地使用 Stable Diffusion:
1. 大模型(Checkpoint)
大模型是生成图像的核心权重文件,决定了画面的整体风格、质感和基础内容。格式通常为 .ckpt 或 .safetensors。常见的模型包括 SD1.5、SDXL 等版本。
2. VAE(Variational Autoencoder)
VAE 负责将潜在空间中的图像数据解码为可见像素,起到调色板的作用,能显著改善画面色彩和细节清晰度。如果模型自带 VAE,通常无需额外加载。
3. LoRA(Low-Rank Adaptation)
LoRA 是一种轻量级的微调模型插件,用于在大模型基础上调整特定风格、人物或物体。它体积小且兼容性强,可灵活搭配不同的大模型使用。
4. ControlNet
ControlNet 是一个强大的控制插件,允许用户通过边缘检测、深度图、姿态骨架等参考图来精确控制生成图像的构图和姿势,实现'指哪打哪'的效果。
三、安装步骤
1. 准备运行环境
解压整合包后,首先检查并安装必要的运行依赖。通常整合包内包含 启动器运行依赖-dotnet-6.0.11.exe 等工具,请双击运行并完成安装。
2. 解压主程序
找到整合包压缩包(如 sd-webui-aki-v4.zip),将其解压至一个路径较短且无中文的文件夹中。例如:D:\AI\sd-webui-aki-v4。
3. 配置模型文件
解压完成后,不要立即启动,先导入模型文件以确保首次运行时不会报错。
- 放置大模型:下载推荐的 Checkpoint 模型文件,放入目录
models\Stable-diffusion下。 - 放置 ControlNet 模型:下载对应的 ControlNet 模型文件,放入目录
models\ControlNet下。 - 放置 LoRA 模型:下载的 LoRA 文件应放入
models\Lora目录。
注意:确保模型文件名清晰,避免特殊字符,以便在 WebUI 界面中正确识别。
四、启动与使用指南
1. 启动服务
进入解压后的根目录,找到启动脚本(如 A 启动器.exe),双击运行。点击右下角的'一键启动'按钮。等待控制台输出日志显示 Running on local URL: http://127.0.0.1:7860 即表示启动成功。


