Stable Diffusion WebUI云部署

Stable Diffusion WebUI云部署

本地部署虽然方便,但对硬件要求高,尤其是显存。云服务器(特别是带有GPU的实例)可以让我们用较低成本体验强大的AI绘画能力,并且可以随时随地通过浏览器访问,非常方便。

一、 部署前的准备

1.1 选择合适的云服务器:

  • GPU型号: 优先选择NVIDIA显卡,如V100, T4, P4, 1080Ti, 2080Ti, 3090, 4090等。显存越大越好,至少8GB起步,推荐12GB以上。
  • 操作系统: Linux发行版(如Ubuntu 20.04 LTS, Debian 11, CentOS 7/8等)是首选,社区支持好,文档丰富。
  • 网络带宽: 部署初期需要下载大量模型和依赖,一个稳定的网络环境至关重要。

1.2 环境配置:

  • Python版本: 推荐使用Python 3.10.x(如3.10.6)。过高或过低的版本都可能与某些依赖库不兼容。
  • 虚拟环境: 务必使用venvconda创建独立的虚拟环境。这可以避免依赖冲突,方便管理,是部署的“黄金法则”。
  • Git配置: 确保Git已安装。如果在国内访问GitHub较慢,可以考虑配置镜像源,例如设置环境变量HF_ENDPOINT指向镜像站(如https://hf-mirror.com),这能极大加速模型下载。

我这里选择的是Ubuntu + RTX3090,显存24G,网络带宽600多MB/s,python3.10.6 + minconda。

二、项目部署

2.1 获取项目代码

克隆仓库:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

若网络问题,也可以手动现在zip压缩包,再上传,代码结构大概是这样:

其中webui.sh是启动项目的脚本文件,launch.py是程序启动起点文件,启动时会按照modules/launch_utils.py文件的流程配置环境。

2.2 性能优化

启动前,安装 libgoogle-perftools4 和 libtcmalloc-minimal4 库,可以优化程序性能。

sudo apt-get install libgoogle-perftools4 libtcmalloc-minimal4 -y 

2.3 启动项目

HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers

(1)HF_ENDPOINT=https://hf-mirror.com

  • 是设置中文镜像,等同于先用export HF_ENDPOINT=https://hf-mirror.com 配置环境变量再启动。
  • 作用是将所有从 Hugging Face(huggingface.co)下载模型、配置文件等的请求,重定向到镜像站 hf-mirror.com,对国内用户非常有用,可解决 Hugging Face 官网访问慢或无法下载的问题。

(2)--port 7860

指定 WebUI 监听的端口号,项目的默认监听端口是7860,但也可以改成其他端口(如 8080

(3)--listen

  • 作用:让 WebUI 服务器监听 所有网络接口(而不仅仅是 127.0.0.1)。
  • 默认情况下,WebUI 只允许本地访问(即只能在本机浏览器打开)。
  • 加上 --listen 后,局域网内其他设备(甚至公网,如果你有暴露端口)也能访问WebUI。

(4)--enable-insecure-extension-access

  • 作用:允许扩展(extensions)访问本地文件系统或执行不安全操作。
  • 一些社区扩展(如模型管理器、LoRA 加载器、自定义脚本)需要更高权限才能正常运行。
  • 默认出于安全考虑是 禁用 的;启用后可能带来安全风险(比如恶意扩展读取或删除文件)。
  • 仅在信任所安装的扩展时才建议启用。

(5)--xformers

  • 作用:启用 xFormers 优化。
  • xFormers 是一组用于加速 Transformer 模型(如 Stable Diffusion)的高效注意力操作实现。
  • 启用后通常可以:
    • 降低显存占用
    • 提升生成速度(尤其在生成高分辨率图像时)
  • 要求系统已正确安装 xformers 包(通常 webui.sh 会自动尝试安装)。
  • 仅支持 NVIDIA GPU(CUDA),不适用于 AMD 或 CPU 推理。

2.4 部署说明

(1)项目启动后,项目目录中会多出一个stable-diffusion-webui目录,这个是存放环境依赖的目录,与项目本身的目录有区别,虽然名字差不多。

(2)使用conda不用venv创建虚拟环境,将weiui.sh文件中的use_venv变量值从1改为0

三、避坑指南

部署过程中会遇到很多坑:

3.1 网络问题,配置环境失败

这种情况,要么检查自己云主机能否联网、带宽够不够用,或者需要下载的的包是否是外网需要代理,实在不行也可以离线安装。

3.2 磁盘空间不够

有的包占用空间太大,磁盘不够用,可以考虑扩充磁盘空间。

3.3 用户权限问题

webui.sh文件中默认设置不可使用root用户启动项目,这个是为了安全考虑,可以创建一个新用户来启动项目。个人使用的话,最直接的解决方案就是,把1处的can_run_as_root=0改成1,或者注释2处的“Do not run as root”这块的脚本

3.4 依赖CLIP 包和pytoch安装失败

对于CLIP 包和pytoch安装失败的问题,可能是github下载时网络太慢,可以添加代理,在modules/launch_utils.py中的所有https://github.com/xxx.git 前面加 https://mirror.ghproxy.com/

若还是不行,可以考虑离线安装。

3.5 依赖stablediffusion安装失败

对于fatal: repository 'https://github.com/Stability-AI/stablediffusion.git/' not found的问题,Stability-AI/stablediffusion项目地址在github上不存在了。

(1)可以modules/lunch_utils.py文件中,将将https://github.com/Stability-AI/stablediffusion.git替换成https://github.com/CompVis/stable-diffusion.git,或者是https://github.com/w-e-w/stablediffusion.git,官方给的是后者。

(2)若仍然有问题,可以尝试在 stable-diffusion-webui/repositories 目录下手动克隆CompVis/stable-diffusion仓库:

git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./stable-diffusion-webui/repositories/stable-diffusion-stability-ai
--config core.filemode=false 是 Git 克隆(git clone)命令中的一个配置选项,在 Unix/Linux 系统中,文件具有执行权限、读写权限等文件模式(file mode)。默认情况下,Git 会跟踪这些文件权限的变化(尤其是可执行位 x)。core.filemode=true(默认在 Linux/macOS 上):Git 会检测并记录文件可执行权限的变化。core.filemode=false:Git 忽略文件权限变化,只关注文件内容。

    同理,对于generative-models下载报错,也同样可以手动下载

    git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git repositories/generative-models

    3.6 Git 访问认证

    从 https://github.com 克隆 stable-diffusion-stability-ai 仓库时,需要Git 访问认证,登录的是github的用户名,但是密码要用秘钥而不是账号密码。

    使用个人访问令牌 (Personal Access Token, PAT) 生成 Personal Access Token (PAT):登录你的 GitHub 账户 (Kysen121)。访问 GitHub 设置页面 (Settings) -> 开发者设置 (Developer settings) -> 个人访问令牌 (Personal access tokens) -> 令牌 (Tokens) (classic) 或 (Fine-grained tokens)。点击 "Generate new token" (生成新令牌)。为令牌设置一个名称 (Note) 和过期时间。关键步骤: 为令牌分配必要的权限 (Scopes/Permissions)。对于克隆 公共 仓库,通常 public_repo 权限就足够了。如果 Stability-AI/stablediffusion 仓库是私有的(根据你提供的信息,它现在是公开的),你需要确保令牌具有访问该私有仓库的权限(例如 repo 权限)。生成令牌后,务必立即复制 它。一旦离开该页面,你将无法再次看到完整的令牌字符串。使用 PAT 进行克隆:当 Git 再次提示输入 Password 时,不要输入你的 GitHub 密码,而是粘贴你刚刚生成的 Personal Access Token

    若还有权限问题,可以使用 ‘3.4 依赖安装失败’ 中的的启动指令加 --skip-prepare-environment 的方式解决。

    3.7 NumPy 版本兼容性问题

    错误信息: A module that was compiled using NumPy 1.x cannot be run in NumPy 2.2.6

    原因: 安装的 PyTorch 等包是基于 NumPy 1.x 编译的,但当前环境使用 NumPy 2.x

    解决方案:

    # 降级 NumPy 到 1.x 版本 pip install "numpy<2" 

    3.8 缺失依赖包pytorch_lightning、gradio

    项目 缺失 pytorch_lightning 和 gradio 依赖

    解决方案:

    pip install pytorch_lightning pip install gradio

    如果使用 HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers --skip-prepare-environment 指令来启动项目,--skip-prepare-environment使得跳过依赖的安装,可以再用 pip install -r requirements_versions.txt 指令将缺失的依赖补上,其中就包含pytorch_lightning、gradio包。

    3.9 git拉取依赖失败

    如3.5中Stability-AI/stablediffusion更换成CompVis/stable-diffusion后仍git仍拉取依赖项目失败,以及generative-models、generative-models、BLIP依赖项目git拉取失败,可以考虑手动拉取,在webui项目路径下执行:

    git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./repositories/stable-diffusion-stability-ai git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/crowsonkb/k-diffusion.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/salesforce/BLIP.git ./repositories/BLIP

    Read more

    AI的提示词专栏:Instruction Tuning 与自定义指令集

    AI的提示词专栏:Instruction Tuning 与自定义指令集

    AI的提示词专栏:Instruction Tuning 与自定义指令集 本文围绕 Instruction Tuning(指令微调)与自定义指令集展开深入解析,先阐释 Instruction Tuning 的定义、与传统 Prompt 调优的区别及核心价值,指出其通过 “指令 - 响应” 对训练让模型从通用文本生成转向精准执行任务,解决传统 Prompt 调优痛点。接着详解自定义指令集的构成要素与设计原则,给出多领域示例。随后介绍 Instruction Tuning 从数据准备、模型选择、微调训练、效果评估到部署应用的完整实施流程,结合电商客服场景实战案例说明落地要点。还针对数据不足、过拟合等常见问题提供解决方案,最后总结核心内容并展望自动指令集生成等未来趋势,为相关实践提供全面指导。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触

    openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

    openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘)

    openclaw-termux:把 OpenClaw AI Gateway 装进 Android(带 App、终端和仪表盘) 项目地址:https://github.com/mithun50/openclaw-termux 作者同时提供两种使用形态:Standalone Flutter App(推荐给大多数人) + Termux CLI 包(适合命令行党)。 一句话:它让你在不 root 的 Android 设备上,一键搭起 OpenClaw AI Gateway,并通过原生 UI 管理启动、日志、Provider 配置,甚至 SSH 远程连接。 这项目解决了什么问题? OpenClaw 本身是一个 AI Gateway/代理网关:

    Qoder AI 编程全攻略:从安装到实战,小白也能轻松上手

    Qoder AI 编程全攻略:从安装到实战,小白也能轻松上手

    前言 还在觉得 AI 编程只是简单的代码补全?那你一定要试试Qoder!这款面向真实软件开发的 Agentic 编码平台,可不是普通的 AI 代码工具,它能深度理解你的整个代码库,把复杂的开发工作拆解开自动处理,不管是在 IDE 里无缝开发,还是在终端里高效操作,都能让你写代码的效率翻倍。 本文结合 Qoder 官方文档和实际使用经验,用最通俗的语言讲清 Qoder 的核心功能、安装步骤和实战用法,不管你是刚接触 AI 编程的新手,还是想提升开发效率的老程序员,都能轻松看懂、快速上手! 一、Qoder 是什么?核心亮点速览 Qoder(发音 /ˈkoʊdər/)是一款主打智能体驱动的 AI 编程平台,和普通的代码补全工具(比如 Copilot)相比,它的核心优势在于深度的项目上下文理解和自动化的复杂任务处理,简单说就是:它能 “读懂” 你的整个项目,

    OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ

    OpenClaw 接入 QQ Bot 完整指南:让你的 AI 助手入驻 QQ TL;DR: OpenClaw 2026.3.31 正式支持 QQ Bot,可以接入 QQ 私聊、群聊,支持图片、语音、视频、文件等富媒体消息,还支持语音识别、日程提醒、Markdown 格式化等功能。 背景 QQ 是国内最主流的即时通讯工具之一,拥有大量技术社区用户。在此之前,OpenClaw 已经支持了钉钉、Slack、Telegram、飞书等渠道,这次更新终于把 QQ 也纳入了版图。 这次 QQ Bot 支持是由腾讯官方团队贡献的(@sliverp),直接对接 QQ