本地部署 Stable Diffusion WebUI 虽然方便,但对硬件要求极高,尤其是显存。利用带 GPU 的云服务器实例,不仅能以较低成本体验强大的 AI 绘画能力,还能随时随地通过浏览器访问,灵活性大大提升。
一、部署前的准备
1.1 选择合适的云服务器
- GPU 型号:优先选择 NVIDIA 显卡,如 V100、T4、P4、3090、4090 等。显存越大越好,建议至少 8GB 起步,推荐 12GB 以上。
- 操作系统:Linux 发行版(如 Ubuntu 20.04 LTS、Debian 11)是首选,社区支持好,文档丰富。
- 网络带宽:部署初期需要下载大量模型和依赖,稳定的网络环境至关重要。
1.2 环境配置
- Python 版本:推荐使用 Python 3.10.x(如 3.10.6)。过高或过低的版本都可能与某些依赖库不兼容。
- 虚拟环境:务必使用 venv 或 conda 创建独立的虚拟环境。这可以避免依赖冲突,方便管理,是部署的'黄金法则'。
- Git 配置:确保 Git 已安装。如果在国内访问 GitHub 较慢,可以考虑配置镜像源,例如设置环境变量 HF_ENDPOINT 指向镜像站(如 https://hf-mirror.com),这能极大加速模型下载。
二、项目部署
2.1 获取项目代码
克隆仓库是最直接的方式:
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
若遇到网络问题,也可以手动下载 zip 压缩包上传。代码结构大致如下:根目录下包含 webui.sh 启动脚本和 launch.py 程序入口,启动时会按照 modules/launch_utils.py 的流程配置环境。
2.2 性能优化
启动前,建议安装 libgoogle-perftools4 和 libtcmalloc-minimal4 库,可以优化程序性能:
sudo apt-get install libgoogle-perftools4 libtcmalloc-minimal4 -y
2.3 启动项目
HF_ENDPOINT=https://hf-mirror.com ./webui.sh --port 7860 --listen --enable-insecure-extension-access --xformers
这里解释一下几个关键参数的作用:
- HF_ENDPOINT:设置中文镜像,等同于先 export 再启动。作用是将所有从 Hugging Face 下载模型、配置文件等的请求重定向到镜像站,对国内用户非常有用,可解决官网访问慢或无法下载的问题。
- --port 7860:指定 WebUI 监听的端口号,默认是 7860,也可改为其他端口(如 8080)。
- --listen:让 WebUI 服务器监听所有网络接口(而不仅仅是 127.0.0.1)。默认情况下只允许本地访问,加上该参数后,局域网内其他设备甚至公网(需暴露端口)也能访问。
- --enable-insecure-extension-access:允许扩展访问本地文件系统或执行不安全操作。一些社区扩展(如模型管理器、LoRA 加载器)需要更高权限才能运行。默认出于安全考虑是禁用的,仅在信任所安装的扩展时才建议启用。
- --xformers:启用 xFormers 优化。这是一组用于加速 Transformer 模型的高效注意力操作实现。启用后通常可以降低显存占用并提升生成速度,但仅支持 NVIDIA GPU(CUDA)。


