Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程

Stable Diffusion WebUI 本地部署完整教程(AUTOMATIC1111 版)

本教程基于 Windows 系统,适合 AI 绘画爱好者或初学者,旨在帮助大家从零部署并运行本地的 Stable Diffusion 模型界面(Web UI)。我们将从克隆项目、配置环境到运行界面,并附上常见网络问题的解决方案。

一、准备工作

1. 安装依赖

  • Python 3.10.x
  • Git(推荐官网下载最新版)
  • 显卡驱动 + CUDA(NVIDIA 用户,建议驱动更新到最新版)

安装好后,确保 Python 和 Git 都加入了系统环境变量。


二、克隆项目仓库

使用如下命令克隆 AUTOMATIC1111 的 Web UI 项目:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 

🚧 常见问题:OpenSSL SSL_read: Connection was reset, errno 10054

这是网络导致的 Git 连接失败问题。

解决方法:

关闭 Git 的 HTTPS 证书验证:

git config --global http.sslVerify false

然后重新执行 clone 命令即可成功。


三、运行项目

1. 进入项目目录,双击运行:

stable-diffusion-webui\webui-user.bat 

运行后会自动创建虚拟环境并下载依赖库。

🚧 问题:提示升级 pip?

解决方法:

根据提示复制升级命令,在新命令行中执行(路径根据你的安装位置可能不同):

H:\AI\stable-diffusion-webui\venv\Scripts\python.exe -m pip install--upgrade pip 

升级完成后,重新运行webui-user.bat


四、解决国内网络环境下载失败的问题

在首次运行时,WebUI 会自动安装一些依赖模型,例如:

  • gfpgan
  • clip
  • open-clip

若下载失败,你会在命令行中看到安装卡住或超时的报错,解决方案如下:

方法一:修改 pip 安装源为国内镜像

打开 stable-diffusion-webui\launch.py 文件,找到安装失败的部分。

例如:

run_pip(f"install {gfpgan_package}","gfpgan")

改为:

run_pip(f"install -i https://pypi.douban.com/simple/ {gfpgan_package}","gfpgan")

同样方式修改:

  • clip_package
  • open_clip_package

然后保存、关闭命令行,重新运行webui-user.bat


方法二:加速 GitHub 文件下载

如果卡在某个 GitHub 地址,可以用加速代理,例如:

"https://github.com/..."

改为:

"https://github.moeyy.xyz/https://github.com/..."
示例:在 launch.pylaunch_utils.py

找到类似以下函数:

defprepare_environment():

把里面涉及 GitHub 的 URL 全部加上加速前缀。


📌 文件找不到的情况

如果你找不到 launch.py,可能你的版本结构已经更新,请在 launch_utils.py 中查找对应的 run_pip(...) 语句并按相同方式修改(比如第 263、266、269 行)。


五、首次加载模型

第一次进入 WebUI 会自动下载一个默认模型(如 v1-5-pruned-emaonly.ckpt),文件较大(约 4GB),请耐心等待。

在这里插入图片描述


首次加载可能时间较长。你也可以自行下载 .ckpt.safetensors 模型放入以下目录:

stable-diffusion-webui\models\Stable-diffusion\ 

🚧 遇到模型加载失败:ProxyError 错误

如果你遇到类似如下错误信息:

ProxyError: ('Unable to connect to proxy', FileNotFoundError(2, 'No such file or directory')) 

并伴随类似:

requests.exceptions.ProxyError: (MaxRetryError("HTTPSConnectionPool(...): Max retries exceeded with url: /openai/clip-vit-large-patch14/resolve/main/vocab.json ...")) 

解决方法如下:

  1. 请关闭你之前为了下载模型使用的代理工具(包括系统代理或设置在 WebUI 中的代理参数)。
  2. 关闭命令行窗口,重新运行 webui-user.bat,程序会重新尝试使用正常方式连接 HuggingFace。

🌀 如果出现“卡住不动”的情况?

有时候你可能会发现命令行卡在某一步不动,长时间没有进度。

解决方法:

  • 直接关闭命令行窗口,重新运行 webui-user.bat,系统通常会从上次中断处继续下载或跳过已安装内容。

六、设置代理加速 HuggingFace 模型下载

为什么要设置?

很多用户在首次运行或切换模型时会遇到以下错误:

OSError: Can't load tokenizer for 'openai/clip-vit-large-patch14' 

说明系统在尝试联网下载 tokenizer 文件(如 vocab.json),但由于网络限制(如 HuggingFace 被墙),下载失败。


解决方法一:在 webui-user.bat 中设置代理

  1. 编辑 webui-user.bat 文件,在开头添加如下内容:
:: 启用代理(如 Clash 使用 HTTP 代理 7890 端口) set HTTP_PROXY=http://127.0.0.1:7890 set HTTPS_PROXY=http://127.0.0.1:7890 :: 如果你用的是 SOCKS5 代理(如 V2Ray、Trojan): :: set ALL_PROXY=socks5://127.0.0.1:1080 
  1. 保存并重新运行 webui-user.bat
✅ 一般配合 Clash 使用效果较好,默认本地端口为 7890

解决方法二:手动下载 CLIP Tokenizer 模型到本地

  1. 下载以下 4 个文件:
    • vocab.json
    • merges.txt
    • tokenizer_config.json
    • special_tokens_map.json
  2. 将上述 4 个文件全部放入该目录中。

打开 ldm\modules\encoders\modules.py,找到如下代码:

self.tokenizer = CLIPTokenizer.from_pretrained(version)

修改为:

self.tokenizer = CLIPTokenizer.from_pretrained("models/clip-vit-large-patch14")

在本地新建目录:

stable-diffusion-webui\models\clip-vit-large-patch14\ 

访问以下链接(如无法打开建议用代理):

https://huggingface.co/openai/clip-vit-large-patch14/tree/main 

这样就会从本地加载 tokenizer 文件,避免联网失败问题。

在这里插入图片描述

七、可选:更换模型

你可以将其他 .ckpt.safetensors 模型放入:

stable-diffusion-webui\models\Stable-diffusion\ 
在这里插入图片描述

然后在 Web UI 界面右上角下拉选择切换模型。


八、模型部署成功后的使用与测试

1. 访问 Web UI 界面

当命令行中显示如下信息:

Running on local URL: http://127.0.0.1:7860 
在这里插入图片描述

打开浏览器,输入该地址访问 Web UI 页面。


2. 输入测试 Prompt 生成图片

在界面中,你会看到一个文本输入框,称为 “Prompt” 输入框。

在这里插入图片描述

在此输入框中,试试以下测试内容:

Official portrait of Groot as substitute teacher 

3. 配置参数建议(可选)

  • 采样器(Sampler):默认即可,如 Euler a、DDIM 等。
  • 步数(Steps):建议设置 20~30,数值越大图片细节越丰富,但生成时间也更长。
  • 分辨率(Width/Height):推荐 512x512,显卡显存有限可适当调低。
  • 种子(Seed):默认随机,想要固定结果可指定具体数值。
  • CFG Scale(引导尺度):7~9 之间通常表现较好,控制对 Prompt 的遵守程度。

4. 点击“生成”按钮

等待几秒至几十秒(具体时间与显卡性能相关),页面会自动显示生成的图像。

在这里插入图片描述

附录、常见模型下载失败的解决方法汇总

问题原因解决方法
OSError: Can't load tokenizer for openai/clip-vit-large-patch14HuggingFace 网络不通本地下载 tokenizer 或配置代理
ProxyError 报错系统代理配置残留关闭系统代理,清理环境变量
命令行卡住不动下载缓慢或被墙Ctrl+C 后重启、断点续传有效
xformers 报错未安装非必要模块可忽略,或通过 pip 安装

Read more

IntelliJ IDEA 打包 Web 项目 WAR 包(含 Tomcat 部署+常见问题解决)

IntelliJ IDEA 打包 Web 项目 WAR 包(含 Tomcat 部署+常见问题解决)

一、引言 对于 IntelliJ IDEA 新手来说,Web 项目 WAR 包打包常因步骤多、配置深而卡壳,且多数教程仅讲“打包”却忽略“部署验证”和“问题排查”。本文将从前置准备→核心配置→打包验证→Tomcat 部署→问题解决,带你完整走通流程,避开 90% 的常见坑。 二、前置准备:确认基础配置(避免起步就错) 在开始打包前,先检查 3 个关键前提,缺失任一环节可能导致后续操作失败: 1. 确认项目类型:打开项目结构(快捷键 Shift+Ctrl+Alt+S),在「Modules」中查看模块类型是否为「Web Application」,若不是,

鸿蒙6/鸿蒙NEXT WebView套壳APP源码

鸿蒙6/鸿蒙NEXT WebView套壳APP源码

本文使用AI生成! 一、事情的起因(真实踩坑) 我之前一直在做一个网页项目,但因为业务展示的原因,需要打包成 APP 使用。 在鸿蒙 4.2 的时候,这件事其实非常简单: * 找一个安卓 WebView 套壳 APP * 用 MT 管理器改一下 URL * 直接就能用了 整个流程几乎是“无脑操作”,而且这个方案稳定跑了一年多,没有任何问题。 二、问题爆发:升级鸿蒙 NEXT 后直接炸了 直到今年(2026),我换了新手机(Mate80ProMax),系统直接升级到了 鸿蒙 6(HarmonyOS NEXT)。 问题就来了。 虽然可以通过“卓易通”兼容运行之前的安卓壳子,但是: ❗ 文件上传直接废了 具体表现是: * <input

前端如何应对精确数字运算?用BigNumber.js解决JavaScript原生Number类型在处理大数或高精度计算时的局限性

前端如何应对精确数字运算?用BigNumber.js解决JavaScript原生Number类型在处理大数或高精度计算时的局限性

目录 前端如何应对精确数字运算?用BigNumber.js解决JavaScript原生Number类型在处理大数或高精度计算时的局限性 一、BigNumber.js介绍 1、什么是 BigNumber.js? 2、作用领域 3、核心特性 二、安装配置与基础用法 1、引入 BigNumber.js 2、配置 BigNumber.js 3、常用方法 ①创建 BigNumber 实例 ②基本运算 ③幂运算 ④绝对值 ⑤舍入 ⑥比较 ⑦格式化输出 ⑧链式调用 三、核心特性 1、大数精度丢失问题 2、小数运算精度问题 3、大数乘除法精度问题 四、总结         作者:watermelo37         ZEEKLOG万粉博主、

ClawdBot快速上手:Web控制台配置、设备授权与Dashboard访问

ClawdBot快速上手:Web控制台配置、设备授权与Dashboard访问 1. 什么是ClawdBot?——你的本地AI助手,开箱即用 ClawdBot 是一个运行在你个人设备上的轻量级AI助手框架,不是云端服务,也不依赖厂商API密钥。它把大模型能力真正交到你手上:你可以把它装在笔记本、旧台式机,甚至树莓派上,全程离线运行,数据不出设备。 它的后端由 vLLM 驱动,这意味着你能享受到接近生产级的推理吞吐和低延迟响应。但和那些需要调参、配环境、改代码的“硬核”方案不同,ClawdBot 的设计哲学是「先跑起来,再调细节」——它默认就带好模型、接口和界面,你只需要执行一条命令,就能看到一个可交互的AI控制台。 它不追求“最全功能”,而是专注解决三个核心问题: * 怎么安全地连上它?(Web控制台不是直接暴露的,有设备信任机制) * 怎么让它听懂你想用什么模型?(不只是换名字,而是真正切换底层推理引擎) * 怎么在浏览器里直观地操作和验证?(不是只靠命令行,而是有可视化反馈) 这三点,正是本文要带你一步步打通的关键路径。 2. 第一步: