Stable Diffusion WebUI云部署

Stable Diffusion WebUI云部署

本地部署虽然方便,但对硬件要求高,尤其是显存。云服务器(特别是带有GPU的实例)可以让我们用较低成本体验强大的AI绘画能力,并且可以随时随地通过浏览器访问,非常方便。

一、 部署前的准备

1.1 选择合适的云服务器:

  • GPU型号: 优先选择NVIDIA显卡,如V100, T4, P4, 1080Ti, 2080Ti, 3090, 4090等。显存越大越好,至少8GB起步,推荐12GB以上。
  • 操作系统: Linux发行版(如Ubuntu 20.04 LTS, Debian 11, CentOS 7/8等)是首选,社区支持好,文档丰富。
  • 网络带宽: 部署初期需要下载大量模型和依赖,一个稳定的网络环境至关重要。

1.2 环境配置:

  • Python版本: 推荐使用Python 3.10.x(如3.10.6)。过高或过低的版本都可能与某些依赖库不兼容。
  • 虚拟环境: 务必使用venvconda创建独立的虚拟环境。这可以避免依赖冲突,方便管理,是部署的“黄金法则”。
  • Git配置: 确保Git已安装。如果在国内访问GitHub较慢,可以考虑配置镜像源,例如设置环境变量HF_ENDPOINT指向镜像站(如https://hf-mirror.com),这能极大加速模型下载。

我这里选择的是Ubuntu + RTX3090,显存24G,网络带宽600多MB/s,python3.10.6 + minconda。

二、项目部署

2.1 获取项目代码

克隆仓库:

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

若网络问题,也可以手动现在zip压缩包,再上传,代码结构大概是这样:

其中webui.sh是启动项目的脚本文件,launch.py是程序启动起点文件,启动时会按照modules/launch_utils.py文件的流程配置环境。

2.2 性能优化

启动前,安装 libgoogle-perftools4 和 libtcmalloc-minimal4 库,可以优化程序性能。

sudo apt-get install libgoogle-perftools4 libtcmalloc-minimal4 -y 

2.3 启动项目

HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers

(1)HF_ENDPOINT=https://hf-mirror.com

  • 是设置中文镜像,等同于先用export HF_ENDPOINT=https://hf-mirror.com 配置环境变量再启动。
  • 作用是将所有从 Hugging Face(huggingface.co)下载模型、配置文件等的请求,重定向到镜像站 hf-mirror.com,对国内用户非常有用,可解决 Hugging Face 官网访问慢或无法下载的问题。

(2)--port 7860

指定 WebUI 监听的端口号,项目的默认监听端口是7860,但也可以改成其他端口(如 8080

(3)--listen

  • 作用:让 WebUI 服务器监听 所有网络接口(而不仅仅是 127.0.0.1)。
  • 默认情况下,WebUI 只允许本地访问(即只能在本机浏览器打开)。
  • 加上 --listen 后,局域网内其他设备(甚至公网,如果你有暴露端口)也能访问WebUI。

(4)--enable-insecure-extension-access

  • 作用:允许扩展(extensions)访问本地文件系统或执行不安全操作。
  • 一些社区扩展(如模型管理器、LoRA 加载器、自定义脚本)需要更高权限才能正常运行。
  • 默认出于安全考虑是 禁用 的;启用后可能带来安全风险(比如恶意扩展读取或删除文件)。
  • 仅在信任所安装的扩展时才建议启用。

(5)--xformers

  • 作用:启用 xFormers 优化。
  • xFormers 是一组用于加速 Transformer 模型(如 Stable Diffusion)的高效注意力操作实现。
  • 启用后通常可以:
    • 降低显存占用
    • 提升生成速度(尤其在生成高分辨率图像时)
  • 要求系统已正确安装 xformers 包(通常 webui.sh 会自动尝试安装)。
  • 仅支持 NVIDIA GPU(CUDA),不适用于 AMD 或 CPU 推理。

2.4 部署说明

(1)项目启动后,项目目录中会多出一个stable-diffusion-webui目录,这个是存放环境依赖的目录,与项目本身的目录有区别,虽然名字差不多。

(2)使用conda不用venv创建虚拟环境,将weiui.sh文件中的use_venv变量值从1改为0

三、避坑指南

部署过程中会遇到很多坑:

3.1 网络问题,配置环境失败

这种情况,要么检查自己云主机能否联网、带宽够不够用,或者需要下载的的包是否是外网需要代理,实在不行也可以离线安装。

3.2 磁盘空间不够

有的包占用空间太大,磁盘不够用,可以考虑扩充磁盘空间。

3.3 用户权限问题

webui.sh文件中默认设置不可使用root用户启动项目,这个是为了安全考虑,可以创建一个新用户来启动项目。个人使用的话,最直接的解决方案就是,把1处的can_run_as_root=0改成1,或者注释2处的“Do not run as root”这块的脚本

3.4 依赖CLIP 包和pytoch安装失败

对于CLIP 包和pytoch安装失败的问题,可能是github下载时网络太慢,可以添加代理,在modules/launch_utils.py中的所有https://github.com/xxx.git 前面加 https://mirror.ghproxy.com/

若还是不行,可以考虑离线安装。

3.5 依赖stablediffusion安装失败

对于fatal: repository 'https://github.com/Stability-AI/stablediffusion.git/' not found的问题,Stability-AI/stablediffusion项目地址在github上不存在了。

(1)可以modules/lunch_utils.py文件中,将将https://github.com/Stability-AI/stablediffusion.git替换成https://github.com/CompVis/stable-diffusion.git,或者是https://github.com/w-e-w/stablediffusion.git,官方给的是后者。

(2)若仍然有问题,可以尝试在 stable-diffusion-webui/repositories 目录下手动克隆CompVis/stable-diffusion仓库:

git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./stable-diffusion-webui/repositories/stable-diffusion-stability-ai
--config core.filemode=false 是 Git 克隆(git clone)命令中的一个配置选项,在 Unix/Linux 系统中,文件具有执行权限、读写权限等文件模式(file mode)。默认情况下,Git 会跟踪这些文件权限的变化(尤其是可执行位 x)。core.filemode=true(默认在 Linux/macOS 上):Git 会检测并记录文件可执行权限的变化。core.filemode=false:Git 忽略文件权限变化,只关注文件内容。

    同理,对于generative-models下载报错,也同样可以手动下载

    git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git repositories/generative-models

    3.6 Git 访问认证

    从 https://github.com 克隆 stable-diffusion-stability-ai 仓库时,需要Git 访问认证,登录的是github的用户名,但是密码要用秘钥而不是账号密码。

    使用个人访问令牌 (Personal Access Token, PAT) 生成 Personal Access Token (PAT):登录你的 GitHub 账户 (Kysen121)。访问 GitHub 设置页面 (Settings) -> 开发者设置 (Developer settings) -> 个人访问令牌 (Personal access tokens) -> 令牌 (Tokens) (classic) 或 (Fine-grained tokens)。点击 "Generate new token" (生成新令牌)。为令牌设置一个名称 (Note) 和过期时间。关键步骤: 为令牌分配必要的权限 (Scopes/Permissions)。对于克隆 公共 仓库,通常 public_repo 权限就足够了。如果 Stability-AI/stablediffusion 仓库是私有的(根据你提供的信息,它现在是公开的),你需要确保令牌具有访问该私有仓库的权限(例如 repo 权限)。生成令牌后,务必立即复制 它。一旦离开该页面,你将无法再次看到完整的令牌字符串。使用 PAT 进行克隆:当 Git 再次提示输入 Password 时,不要输入你的 GitHub 密码,而是粘贴你刚刚生成的 Personal Access Token

    若还有权限问题,可以使用 ‘3.4 依赖安装失败’ 中的的启动指令加 --skip-prepare-environment 的方式解决。

    3.7 NumPy 版本兼容性问题

    错误信息: A module that was compiled using NumPy 1.x cannot be run in NumPy 2.2.6

    原因: 安装的 PyTorch 等包是基于 NumPy 1.x 编译的,但当前环境使用 NumPy 2.x

    解决方案:

    # 降级 NumPy 到 1.x 版本 pip install "numpy<2" 

    3.8 缺失依赖包pytorch_lightning、gradio

    项目 缺失 pytorch_lightning 和 gradio 依赖

    解决方案:

    pip install pytorch_lightning pip install gradio

    如果使用 HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers --skip-prepare-environment 指令来启动项目,--skip-prepare-environment使得跳过依赖的安装,可以再用 pip install -r requirements_versions.txt 指令将缺失的依赖补上,其中就包含pytorch_lightning、gradio包。

    3.9 git拉取依赖失败

    如3.5中Stability-AI/stablediffusion更换成CompVis/stable-diffusion后仍git仍拉取依赖项目失败,以及generative-models、generative-models、BLIP依赖项目git拉取失败,可以考虑手动拉取,在webui项目路径下执行:

    git clone --config core.filemode=false https://github.com/CompVis/stable-diffusion.git ./repositories/stable-diffusion-stability-ai git clone --config core.filemode=false https://github.com/Stability-AI/generative-models.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/crowsonkb/k-diffusion.git ./repositories/generative-models git clone --config core.filemode=false https://github.com/salesforce/BLIP.git ./repositories/BLIP

    Read more

    离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

    离开舒适区之后:从三年前端到 CS 硕士——我在韩国亚大读研的得失

    过去一年多,我做了一个挺重要的决定:辞职,去韩国留学读研。 这段时间我几乎没怎么学习新的前端内容,但也没有停下来。我在韩国亚洲大学完成了计算机科学与技术(大数据)硕士的学习,在高强度的节奏里重新建立了自己的方法,也因为持续写博客获得了一些机会,担任本科 Web 实训课讲师。现在这段留学告一段落,我也准备重新回到前端领域,把这段经历当作一份额外的积累带回去。这篇复盘主要是想把这一路的收获、疲惫和一些值得记住的瞬间记录下来,留给未来的自己,也分享给路过的你。 文章目录 * 1、写在前面:我为什么会从前端转去读研 * 2、留学生活的关键词:卷、AI、被看见以及校庆的“放开玩” * 3、我的“结果卡片” * 4、得:这一年半我真正收获的东西 * 5、失:我付出的代价 * 6、期末周:我经历过的“高强度交付周” * 7、前端三年经验,如何在读研里“迁移复用” * 8、我在韩国的学习系统:

    一个 skill ,增加大模型前端的审美能力

    上周,我让 AI 帮我做个落地页。 十分钟过去了,生成出来的东西—— 白色背景,紫色渐变,Inter 字体。 我直接关了。 你也遇到过吧? 用 AI 生前端,出来的东西都长一个样。 背景非白即黑,标题栏永远是紫色渐变,字体不是 Inter 就是 Roboto,配色永远是那套蓝绿红黄。 不是说不能用,但—— 太像 AI 了。 一眼看过去就是"机器生成",没有灵魂,没有个性。 直到昨天,我发现了一个东西。 Anthropic 官方出的一个 skill,叫 frontend-design。 让我再试一次。 这次不一样了 同样的提示词,同样的模型。 我只加了一句话: “使用 frontend-design skill” 结果呢?

    前端八股文面经大全:腾讯前端AI面试(2026-02-28)·面经深度解析

    前端八股文面经大全:腾讯前端AI面试(2026-02-28)·面经深度解析

    前言 大家好,我是木斯佳。 在这个春节假期,当大家都在谈论返乡、团圆与休息时,作为一名技术人,我的思考却不由自主地转向了行业的「冬」与「春」。 相信很多人都感受到了,在AI浪潮的席卷之下,前端领域的门槛在变高,纯粹的“增删改查”岗位正在肉眼可见地减少。曾经热闹非凡的面经分享,如今也沉寂了许多。但我们都知道,市场的潮水退去,留下的才是真正在踏实准备、努力沉淀的人。学习的需求,从未消失,只是变得更加务实和深入。 这个专栏的初衷很简单:拒绝过时的、流水线式的PDF引流贴,专注于收集和整理当下最新、最真实的前端面试资料。我会在每一份面经和八股文的基础上,尝试从面试官的角度去拆解问题背后的逻辑,而不仅仅是提供一份静态的背诵答案。无论你是校招还是社招,目标是中大厂还是新兴团队,只要是真实发生、有价值的面试经历,我都会在这个专栏里为你沉淀下来。 温馨提示:市面上的面经鱼龙混杂,甄别真伪、把握时效,是我们对抗内卷最有效的武器。 让我们一起充电,为下一个技术春天做好准备。 面经原文内容 📍面试公司:腾讯 🕐面试时间:

    Flutter for OpenHarmony: Flutter 三方库 flutter_cors 应对鸿蒙 Web 与混合开发中的跨域挑战(网络兼容方案)

    Flutter for OpenHarmony: Flutter 三方库 flutter_cors 应对鸿蒙 Web 与混合开发中的跨域挑战(网络兼容方案)

    欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 的跨平台开发时,我们不仅开发原生 HAP,有时也会涉及 Flutter Web 或是在鸿蒙端侧运行 Webview 混合应用。这时,一个经典的“拦路虎”就会出现:CORS (跨源资源共享) 限制。当你的 Web 端尝试访问一个未配置跨域头部的后端 API 时,请求会被浏览器拦截,报错信息极其晦涩。 虽然 CORS 主要是后端的工作,但 flutter_cors 提供了一种客户端视角的辅助工具。它通过工具化手段帮助开发者分析、绕过或生成跨域适配规则,是保证鸿蒙跨平台 Web 项目顺利运行的调试利器。 一、跨域访问逻辑模型 CORS 是一种浏览器的安全保护机制,它在请求发出前先进行“预检(Preflight)