Stable Diffusion WebUI云部署

Stable Diffusion WebUI云部署

本地部署虽然方便,但对硬件要求高,尤其是显存。云服务器(特别是带有GPU的实例)可以让我们用较低成本体验强大的AI绘画能力,并且可以随时随地通过浏览器访问,非常方便。

一、 部署前的准备

1.1 选择合适的云服务器:

  • GPU型号: 优先选择NVIDIA显卡,如V100, T4, P4, 1080Ti, 2080Ti, 3090, 4090等。显存越大越好,至少8GB起步,推荐12GB以上。
  • 操作系统: Linux发行版(如Ubuntu 20.04 LTS, Debian 11, CentOS 7/8等)是首选,社区支持好,文档丰富。
  • 网络带宽: 部署初期需要下载大量模型和依赖,一个稳定的网络环境至关重要。

1.2 环境配置:

  • Python版本: 推荐使用Python 3.10.x(如3.10.6)。过高或过低的版本都可能与某些依赖库不兼容。
  • 虚拟环境: 务必使用venvconda创建独立的虚拟环境。这可以避免依赖冲突,方便管理,是部署的“黄金法则”。
  • Git配置: 确保Git已安装。如果在国内访问GitHub较慢,可以考虑配置镜像源,例如设置环境变量HF_ENDPOINT指向镜像站(如https://hf-mirror.com),这能极大加速模型下载。

我这里选择的是Ubuntu + RTX3090,显存24G,网络带宽600多MB/s,python3.10.6 + minconda。

二、项目部署

2.1 获取项目代码

克隆仓库:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

若网络问题,也可以手动现在zip压缩包,再上传,代码结构大概是这样:

其中webui.sh是启动项目的脚本文件,launch.py是程序启动起点文件,启动时会按照modules/launch_utils.py文件的流程配置环境。

2.2 性能优化

启动前,安装 libgoogle-perftools4 和 libtcmalloc-minimal4 库,可以优化程序性能。

sudo apt-get install libgoogle-perftools4 libtcmalloc-minimal4 -y 

2.3 启动项目

HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers

(1)HF_ENDPOINT=https://hf-mirror.com

  • 是设置中文镜像,等同于先用export HF_ENDPOINT=https://hf-mirror.com 配置环境变量再启动。
  • 作用是将所有从 Hugging Face(huggingface.co)下载模型、配置文件等的请求,重定向到镜像站 hf-mirror.com,对国内用户非常有用,可解决 Hugging Face 官网访问慢或无法下载的问题。

(2)--port 7860

指定 WebUI 监听的端口号,项目的默认监听端口是7860,但也可以改成其他端口(如 8080

(3)--listen

  • 作用:让 WebUI 服务器监听 所有网络接口(而不仅仅是 127.0.0.1)。
  • 默认情况下,WebUI 只允许本地访问(即只能在本机浏览器打开)。
  • 加上 --listen 后,局域网内其他设备(甚至公网,如果你有暴露端口)也能访问WebUI。

(4)--enable-insecure-extension-access

  • 作用:允许扩展(extensions)访问本地文件系统或执行不安全操作。
  • 一些社区扩展(如模型管理器、LoRA 加载器、自定义脚本)需要更高权限才能正常运行。
  • 默认出于安全考虑是 禁用 的;启用后可能带来安全风险(比如恶意扩展读取或删除文件)。
  • 仅在信任所安装的扩展时才建议启用。

(5)--xformers

  • 作用:启用 xFormers 优化。
  • xFormers 是一组用于加速 Transformer 模型(如 Stable Diffusion)的高效注意力操作实现。
  • 启用后通常可以:
    • 降低显存占用
    • 提升生成速度(尤其在生成高分辨率图像时)
  • 要求系统已正确安装 xformers 包(通常 webui.sh 会自动尝试安装)。
  • 仅支持 NVIDIA GPU(CUDA),不适用于 AMD 或 CPU 推理。

2.4 部署说明

(1)项目启动后,项目目录中会多出一个stable-diffusion-webui目录,这个是存放环境依赖的目录,与项目本身的目录有区别,虽然名字差不多。

(2)使用conda不用venv创建虚拟环境,将weiui.sh文件中的use_venv变量值从1改为0

三、避坑指南

部署过程中会遇到很多坑:

3.1 网络问题,配置环境失败

这种情况,要么检查自己云主机能否联网、带宽够不够用,或者需要下载的的包是否是外网需要代理,实在不行也可以离线安装。

3.2 磁盘空间不够

有的包占用空间太大,磁盘不够用,可以考虑扩充磁盘空间。

3.3 用户权限问题

webui.sh文件中默认设置不可使用root用户启动项目,这个是为了安全考虑,可以创建一个新用户来启动项目。个人使用的话,最直接的解决方案就是,把1处的can_run_as_root=0改成1,或者注释2处的“Do not run as root”这块的脚本

3.4 依赖CLIP 包和pytoch安装失败

对于CLIP 包和pytoch安装失败的问题,可能是github下载时网络太慢,可以添加代理,在modules/launch_utils.py中的所有https://github.com/xxx.git 前面加 https://mirror.ghproxy.com/

若还是不行,可以考虑离线安装。

3.5 依赖stablediffusion安装失败

对于fatal: repository 'https://github.com/Stability-AI/stablediffusion.git/' not found的问题,Stability-AI/stablediffusion项目地址在github上不存在了。

(1)可以modules/lunch_utils.py文件中,将将https://github.com/Stability-AI/stablediffusion.git替换成https://github.com/CompVis/stable-diffusion.git,或者是https://github.com/w-e-w/stablediffusion.git,官方给的是后者。

(2)若仍然有问题,可以尝试在 stable-diffusion-webui/repositories 目录下手动克隆CompVis/stable-diffusion仓库:

git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./stable-diffusion-webui/repositories/stable-diffusion-stability-ai
--config core.filemode=false 是 Git 克隆(git clone)命令中的一个配置选项,在 Unix/Linux 系统中,文件具有执行权限、读写权限等文件模式(file mode)。默认情况下,Git 会跟踪这些文件权限的变化(尤其是可执行位 x)。core.filemode=true(默认在 Linux/macOS 上):Git 会检测并记录文件可执行权限的变化。core.filemode=false:Git 忽略文件权限变化,只关注文件内容。

    同理,对于generative-models下载报错,也同样可以手动下载

    git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git repositories/generative-models

    3.6 Git 访问认证

    从 https://github.com 克隆 stable-diffusion-stability-ai 仓库时,需要Git 访问认证,登录的是github的用户名,但是密码要用秘钥而不是账号密码。

    使用个人访问令牌 (Personal Access Token, PAT) 生成 Personal Access Token (PAT):登录你的 GitHub 账户 (Kysen121)。访问 GitHub 设置页面 (Settings) -> 开发者设置 (Developer settings) -> 个人访问令牌 (Personal access tokens) -> 令牌 (Tokens) (classic) 或 (Fine-grained tokens)。点击 "Generate new token" (生成新令牌)。为令牌设置一个名称 (Note) 和过期时间。关键步骤: 为令牌分配必要的权限 (Scopes/Permissions)。对于克隆 公共 仓库,通常 public_repo 权限就足够了。如果 Stability-AI/stablediffusion 仓库是私有的(根据你提供的信息,它现在是公开的),你需要确保令牌具有访问该私有仓库的权限(例如 repo 权限)。生成令牌后,务必立即复制 它。一旦离开该页面,你将无法再次看到完整的令牌字符串。使用 PAT 进行克隆:当 Git 再次提示输入 Password 时,不要输入你的 GitHub 密码,而是粘贴你刚刚生成的 Personal Access Token

    若还有权限问题,可以使用 ‘3.4 依赖安装失败’ 中的的启动指令加 --skip-prepare-environment 的方式解决。

    3.7 NumPy 版本兼容性问题

    错误信息: A module that was compiled using NumPy 1.x cannot be run in NumPy 2.2.6

    原因: 安装的 PyTorch 等包是基于 NumPy 1.x 编译的,但当前环境使用 NumPy 2.x

    解决方案:

    # 降级 NumPy 到 1.x 版本 pip install "numpy<2" 

    3.8 缺失依赖包pytorch_lightning、gradio

    项目 缺失 pytorch_lightning 和 gradio 依赖

    解决方案:

    pip install pytorch_lightning pip install gradio

    如果使用 HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers --skip-prepare-environment 指令来启动项目,--skip-prepare-environment使得跳过依赖的安装,可以再用 pip install -r requirements_versions.txt 指令将缺失的依赖补上,其中就包含pytorch_lightning、gradio包。

    3.9 git拉取依赖失败

    如3.5中Stability-AI/stablediffusion更换成CompVis/stable-diffusion后仍git仍拉取依赖项目失败,以及generative-models、generative-models、BLIP依赖项目git拉取失败,可以考虑手动拉取,在webui项目路径下执行:

    git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./repositories/stable-diffusion-stability-ai git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/crowsonkb/k-diffusion.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/salesforce/BLIP.git ./repositories/BLIP

    Read more

    前端直连模型 vs 完整 MCP:大模型驱动地图的原理与实践(技术栈Vue + Cesium + Node.js + WebSocket + MCP)

    适合读者:完全新手、前端开发者、对大模型工具调用感兴趣的工程师 技术栈示例:Vue + Cesium + Node.js + WebSocket + MCP 教程目标:看懂并搭建一套“用户通过聊天输入指令,大模型决定调用工具,再驱动地图执行动作”的完整链路 目录 * 1. 这篇教程要解决什么问题 * 2. 先别写代码:先搞懂两个很像但本质不同的方案 * 2.1 方案一:前端直连模型 * 2.2 方案二:真正完整的 MCP * 2.3 它们最核心的区别 * 3. 为什么很多人一开始会把两套方案混在一起 * 4. 先建立整体认知:完整 MCP 里有哪些角色 * 5. 完整 MCP 的时序图:一句“飞到上海”是怎么穿过整个系统的 * 6.

    离线部署大模型Ollama+DeepSeek+Open-WebUI 完整指南

    离线部署大模型Ollama+DeepSeek+Open-WebUI 完整指南 一、整体架构与核心组件 1. 架构流程图 硬件环境Ollama 运行框架模型管理DeepSeek-R1 模型第三方模型导入服务暴露命令行交互API 服务局域网访问Open-WebUI 可视化界面功能应用聊天交互本地知识库图像生成 2. 核心组件说明 组件作用核心优势Ollama本地大模型运行框架跨平台、部署简单、支持模型导入/管理/API调用DeepSeek-R1高性能开源大模型(中英文支持)多参数版本、兼顾速度与精度、支持复杂任务Open-WebUI可视化 Web 界面易用性强、支持 RAG 知识库、多模型切换 二、前置准备 1. 硬件要求(关键) DeepSeek-R1 版本模型大小建议 CPU建议内存建议显存适用场景1.5B1.1GB4核4~8G4GB轻量文本处理、快速响应7B/8B4.7G/4.9G8核16G14GB日常使用、平衡性能与硬件14B9GB12核32G26GB复杂推理、代码生成32B20GB16核64G48GB专业级高精度任务70B+43GB+32核+

    Flutter 三方库 bones_ui 的鸿蒙化适配指南 - 打造直观、响应式的 Web 风格 UI 交互体验

    欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 bones_ui 的鸿蒙化适配指南 - 打造直观、响应式的 Web 风格 UI 交互体验 Flutter for OpenHarmony 开发者在构建具有 Web 质感的跨平台应用时,UI 框架的选择至关重要。本文将带大家深度调研 Dart 三方库 bones_ui 在鸿蒙系统上的适配方案,探索如何利用其直观的组件架构,加速鸿蒙桌面级应用的开发效率。 前言 在移动端和桌面端融合的今天,开发者往往希望一套代码能同时适配多种屏幕形态。bones_ui 原生为 Dart Web 打造,但在 Flutter for OpenHarmony 的大前端生态中,其简洁的 UI 组件设计思想对我们构建鸿蒙跨平台应用具有极大的参考价值。

    Rust WebAssembly与Three.js结合的3D数据可视化实战:高性能粒子系统

    Rust WebAssembly与Three.js结合的3D数据可视化实战:高性能粒子系统

    Rust WebAssembly与Three.js结合的3D数据可视化实战:高性能粒子系统 一、引言 💡3D数据可视化是现代Web应用的高级场景之一,广泛应用于数据分析、科学计算、游戏开发、虚拟仿真等领域。传统的JavaScript+WebGL/Three.js方案在处理大量数据(如百万级粒子)时,性能往往难以满足要求。Rust WebAssembly的高性能和内存安全特性,使得它非常适合优化3D数据可视化的核心算法,提高应用的响应速度和渲染帧率。 本章将深入探讨Rust WebAssembly与Three.js结合的3D数据可视化开发,介绍WebGL/Three.js的基本概念,讲解Rust Wasm与WebGL的交互方式,重点实现一个高性能粒子系统,支持粒子的创建、更新、删除,以及各种动画效果。最后,本章还将介绍如何优化粒子系统的性能,如何打包和部署项目。 二、WebGL与Three.js基础 2.1 WebGL概述 WebGL是一种基于OpenGL ES的Web图形库,允许开发者在Web浏览器中使用GPU加速渲染3D图形。WebGL的核心是着色器语言(GLSL)