【全网最全・保姆级】Stable Diffusion WebUI Windows 部署 + 全套报错终极解决方案

        大家好,我是在部署 SD WebUI 过程中把几乎所有坑都踩了一遍的选手,从 Git 报错、模块缺失、依赖冲突到虚拟环境异常,全部踩完。今天把完整安装流程 + 我遇到的所有真实错误 + 一行一解全部整理出来,写成一篇能直接发 ZEEKLOG 的完整文章。


一、前言

Stable Diffusion WebUI 是目前 AI 绘画最主流的本地部署工具,但 Windows 环境下因为 Python 版本、虚拟环境、Git 仓库、依赖包、CLIP 编译 等问题,90% 的新手都会启动失败。本文包含:

  • 标准 Windows 一键部署流程
  • 我真实遇到的 10+ 种报错
  • 每一种报错的 原因 + 直接复制可用的命令
  • 最终测试出图提示词(中文)适合:新手、GTX1650 / 4G 显存、Windows10/11

二、环境准备(标准安装流程)

1. 必备软件

  1. Python 3.10.11(必须 3.10,高版本必报错)
  2. Git(安装时勾选 Add to PATH)
  3. 模型文件(如 Realistic Vision V6.0)放入:models/Stable-diffusion/

SD WebUI 源码plaintext

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 

2. 标准启动流程

  1. 进入目录
  2. 双击 webui-user.bat
  3. 自动下载依赖、克隆仓库、安装 torch
  4. 出现 Running on local URL: http://127.0.0.1:7860 成功

三、我遇到的所有报错 + 原因 + 解决方案(硬核汇总)

以下全部是我真实部署时触发的错误,你遇到任意一条,直接对照解决。

报错总览表

表格

报错信息核心原因解决方案
UnboundLocalError: sys 未定义代码修改导致作用域异常还原官方 launch_utils.py
SyntaxError: sys 全局声明错误错误使用 global sys删除所有 global sys 语句
fatal: not a git repository仓库缺失 / 不是 git 目录手动克隆仓库到 repositories
Couldn't fetch Stable Diffusionstable-diffusion-stability-ai 缺失重新克隆指定版本仓库
ModuleNotFoundError: clipCLIP 未安装 / 安装错误安装源码版 CLIP,非 pip clip
ModuleNotFoundError: sgm缺少 generative-models 仓库克隆仓库
ModuleNotFoundError: k_diffusion缺少 k-diffusion 仓库克隆仓库
ModuleNotFoundError: packaging虚拟环境缺少 packagingpip install packaging --upgrade
Failed to initialize NumPynumpy 损坏强制重装 numpy
AssertionError: Couldn't find Stable Diffusion核心仓库被 --skip-install 屏蔽移除 --skip-install
FutureWarning: timm.models.layerstimm 版本警告升级 timm 到 0.9.8

四、逐行报错详解

1. UnboundLocalError: local variable 'sys' referenced before assignment

原因:手动修改代码时破坏了 sys 模块作用域。

解决:还原 modules/launch_utils.py 为官方原版。


2. SyntaxError: name 'sys' is used prior to global declaration

原因:错误添加 global sys 导致语法冲突。

解决:删除所有 global sys 语句。


3. fatal: not a git repository + Couldn't fetch Stable Diffusion

原因repositories/stable-diffusion-stability-ai 目录无效。

解决

bash

运行

git clone https://github.com/Stability-AI/stablediffusion.git repositories/stable-diffusion-stability-ai git -C repositories/stable-diffusion-stability-ai checkout cf1d67a6fd5ea1aa600c4df58e5b47da45f6bdbf 

4. ModuleNotFoundError: No module named 'clip'

原因:pip 的 clip 包不是 OpenAI 官方 CLIP。

解决

bash

运行

pip install https://github.com/openai/CLIP/archive/d50d76daa670286dd6cacf3bcd80b5e4823fc8e1.zip 

5. ModuleNotFoundError: No module named 'sgm'

原因:缺少 SDXL 核心仓库。

解决

bash

运行

git clone https://github.com/Stability-AI/generative-models.git repositories/generative-models 

6. ModuleNotFoundError: No module named 'k_diffusion'

原因:缺少采样器仓库。

解决

bash

运行

git clone https://github.com/crowsonkb/k-diffusion.git repositories/k-diffusion 

7. ModuleNotFoundError: No module named 'packaging'

原因:虚拟环境缺少基础依赖。

解决

bash

运行

venv\Scripts\activate pip install packaging --upgrade 

8. Failed to initialize NumPy: _ARRAY_API not found

原因:numpy 安装损坏。

解决

bash

运行

pip install --force-reinstall numpy pip install pytorch-lightning 

9. AssertionError: Couldn't find Stable Diffusion

原因--skip-install 屏蔽了仓库克隆。

解决:删除 webui-user.bat 里的 --skip-install


10. FutureWarning: Importing from timm.models.layers

原因:timm 库版本警告,不影响运行。

解决

bash

运行

pip install timm==0.9.8 --upgrade 

五、最容易失败的关键点(新手必看)

  1. 必须用 Python3.10,3.11/3.12 必报错
  2. Git 必须安装并加入 PATH
  3. 路径不能有中文、空格
  4. 所有依赖必须装在 venv 虚拟环境
  5. CLIP 必须装 源码版,不能装 pip 的 clip
  6. repositories 目录下 5 个仓库缺一不可

六、部署成功测试:中文提示词(直接复制)

正向

plaintext

(最高画质, 杰作, 超精细细节), 写实照片, 1个女孩, 微笑, 窗边自然光, 细腻皮肤, 高清质感, 8k 

反向

plaintext

卡通, 动画, 丑陋, 变形, 模糊, 低分辨率, 水印, 文字, 色差, 失真, 坏手, 多余肢体 

参数

  • 采样器:DPM++ 2M Karras
  • 步数:25
  • 分辨率:512×768
  • CFG:7

七、总结

Stable Diffusion WebUI 启动失败 99% 都是:

  • Git 仓库缺失
  • 依赖包版本不对
  • CLIP 安装错误
  • 虚拟环境异常
  • Python 版本不兼容

我把所有坑全部踩完,整理成这一篇,你遇到任何报错,都能在本文找到答案

八、附件

stable-diffusion-stability-ai资源-ZEEKLOG下载

 

Read more

Retinaface+CurricularFace保姆级教程:Python 3.11.14环境下推理脚本调试避坑指南

Retinaface+CurricularFace保姆级教程:Python 3.11.14环境下推理脚本调试避坑指南 你是不是也遇到过这样的情况:镜像拉下来了,环境看着都对,可一跑推理脚本就报错?要么是模块找不到,要么是CUDA版本不匹配,再或者相似度结果忽高忽低、完全没法判断准不准……别急,这篇教程就是为你写的。我们不讲大道理,不堆参数表,只聚焦一个目标:让你在Python 3.11.14环境下,把RetinaFace+CurricularFace这套人脸检测+识别流程,稳稳当当地跑通、调顺、用明白。全程基于ZEEKLOG星图预置镜像实测,所有命令、路径、报错和解法,都是从真实终端里一行行敲出来的。 1. 先搞懂这个镜像是什么,别急着跑代码 很多人一上来就cd、python、conda activate,结果卡在第一步——连自己用的是什么都不知道。咱们先把底子理清楚。 这个镜像不是简单拼凑的“RetinaFace + CurricularFace”,而是一套经过工程验证的端到端人脸识别流水线: * RetinaFace 负责“

【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

【FPGA入坑指南第二章】安装vivado/vitis2023.1软件

本栏目的初心 降低FPGA的门槛,让所有对FPGA感兴趣的,之前望而却步的朋友也能上手玩一玩,体验一下FPGA的世界。【本栏作者贯彻“先进入再深入”的中心思想】 引文 * AMD官方软件下载地址 vivado开发者工具 * 百度云下载包 Xilinx2023.1安装包「其他版本可以联系作者」 简介 Vivado和Vitis是Xilinx(现为AMD的一部分)推出的两款核心软件工具,它们在FPGA和SoC(系统级芯片)设计中占据着重要地位。这两款软件的推出代表了Xilinx在数字设计领域的持续创新与发展,并且逐步取代了早期的ISE和SDK工具套件。 ISE和SDK的历史背景 在Vivado和Vitis推出之前,Xilinx的ISE(Integrated Software Environment)是FPGA设计的主要开发环境。ISE主要用于Xilinx早期的FPGA系列,如Spartan和Virtex系列。ISE支持从RTL设计、综合、布局布线到生成比特流文件的整个设计流程,但其在时序优化、设计复杂度和开发效率方面逐渐暴露出一些局限性,尤其是对于更高端的FPGA系列和

告别从零开发!AI+AR眼镜开源方案来了|PUSHI G1赋能18个全场景,联动腾讯/阿里云落地

告别从零开发!AI+AR眼镜开源方案来了|PUSHI G1赋能18个全场景,联动腾讯/阿里云落地

在人工智能(AI)与增强现实(AR)技术深度融合、加速渗透千行百业的产业浪潮中,深圳企业凭借前沿硬件研发实力与生态构建思维,率先完成从单一硬件供给到全链条系统生态布局的关键跨越,推出AI+AR眼镜应用开放平台。该平台打破行业壁垒,兼容不同厂家的AI/AR眼镜技术方案,彻底解决当前市场核心痛点——市面上多数AI/AR眼镜方案局限于自有品牌闭环,未开放音视频推拉流SDK接口,导致开发者难以基于现有硬件二次开发,创意落地面临“从零起步”的高门槛困境。 作为平台核心支撑,PUSHI G1 AI眼镜开源技术方案构建“硬件+软件+API+SDK”全栈开放体系,覆盖1人创业团队、高校科研小组、学生创新创业项目等各类开发者群体,提供低门槛、高自由度、高兼容性的二次开发环境,实现“让创意无需从零搭建,让技术赋能人人创新”,推动AI+AR技术从专业领域走向个体创新,激活全场景应用潜能。方案深度联动腾讯云、阿里云、高德地图等主流平台API,形成“硬件适配-算法调用-场景落地”全链条支撑。 一、PUSHI