Stable Diffusion WebUI 从安装到实战:原理、部署与问题全解

Stable Diffusion 原理、介绍及 WebUI 安装指南

一、Stable Diffusion 原理及介绍

Stable Diffusion 是一种基于潜在扩散模型(Latent Diffusion Model)的文本到图像生成人工智能模型,由 Stability AI 主导开发,于 2022 年发布。其核心原理是通过“扩散过程”的逆过程实现图像生成:

  1. 扩散过程:从一张清晰图像开始,逐步添加高斯噪声,最终将图像转化为完全随机的噪声
  2. 逆扩散过程:模型学习从纯噪声中逐步去除噪声,结合文本提示(Prompt)的语义信息,最终生成符合描述的清晰图像

该模型的优势在于:

  • 开源可访问性:允许研究者和开发者自由使用和修改
  • 高质量生成:能生成具有细节和艺术感的图像
  • 灵活性:支持文本生成图像、图像修复、风格迁移等多种任务
  • 资源友好性:相比早期扩散模型,通过潜在空间(Latent Space)计算大幅降低了硬件需求

Stable Diffusion WebUI 是基于 Stable Diffusion 模型的可视化操作界面(以 AUTOMATIC1111 版本最为流行),提供了直观的参数调整、模型管理和图像生成功能,让非专业用户也能便捷使用该模型。

具体可以参见这篇文章,原理介绍的比较清晰:https://zhuanlan.zhihu.com/p/628714183

二、Stable Diffusion WebUI 安装步骤

1. Conda 设置清华源

conda config --show channels conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ conda config --set show_channel_urls yes

2. 创建并激活 conda 环境

conda create -n sdw python=3.10 conda activate sdw 

3. pip 设置清华源

pip config list pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple 

4. 下载源码并切换分支

# 国内源克隆(推荐)git clone https://mirror.ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git # 进入目录并切换版本cd stable-diffusion-webui/ git checkout v1.10.1 

5. 配置模型下载路径

修改 ./modules/sd_models.py 文件,指定模型下载地址(解决网络限制问题):

161else:162 model_url =f"http://192.168.1.10/data/model/SD/v1-5-pruned-emaonly.safetensors"163 expected_sha256 ='6ce0161689b3853acaa03779ec93eafe75a02f4ced659bee03f50797806fa2fa'

模型可通过以下方式获取:

  • 官方地址:https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors
  • 局域网地址:http://192.168.1.10/data/model/SD/v1-5-pruned-emaonly.safetensors

6. 安装 CLIP 模型

# 创建目录mkdir -p ./openai/ cd ./openai/ # 下载 CLIP 模型(局域网方式)wget http://192.168.1.10/data/model/SD/clip-vit-large-patch14.tar.gz # 解压tar -zxvf clip-vit-large-patch14.tar.gz # 返回主目录cd..

7. 安装 Python 依赖

pip install -r requirements_versions.txt 

8. 允许 root 用户执行

修改 webui.sh 第 74 行:

73# this script cannot be run as root by default74can_run_as_root=1

9. 解决 CLIP 安装超时问题

由于网络限制,直接安装 CLIP 可能失败,可通过以下方式解决:

# 方法1:手动下载并安装wget http://192.168.1.10/data/soft/CLIP-d50d76daa670286dd6cacf3bcd80b5e4823fc8e1.zip pip install CLIP-d50d76daa670286dd6cacf3bcd80b5e4823fc8e1.zip # 方法2:修改源码中的下载地址vi ./modules/launch_utils.py # 将第345-346行修改为:# clip_package = os.environ.get('CLIP_PACKAGE', "http://192.168.1.10/data/soft/CLIP-d50d76daa670286dd6cacf3bcd80b5e4823fc8e1.zip")

10. 解决 TCMalloc 依赖问题

# 安装依赖apt-get update apt-getinstall google-perftools -y # 配置环境变量echo"export LD_PRELOAD=\"/usr/lib/x86_64-linux-gnu/libtcmalloc.so.4.5.3\"">> /etc/profile source /etc/profile 

11. 执行安装

bash webui.sh 

成功安装后会显示类似以下信息:

Loading weights [6ce0161689] from /root/stable-diffusion-webui/models/Stable-diffusion/v1-5-pruned-emaonly.safetensors Running on local URL: http://127.0.0.1:7860 Creating model from config: /root/stable-diffusion-webui/configs/v1-inference.yaml Applying attention optimization: Doggettx... done. Model loaded in 3.5s (load weights from disk: 0.8s, create model: 0.8s, apply weights to model: 1.5s, calculate empty prompt: 0.2s). 

三、服务配置与访问

1. 设置开机启动

创建服务文件 /etc/systemd/system/sdw.service

[Unit] Description=Stable Diffusion WebUI Service After=network.target [Service] Type=simple User=root StandardOutput=file:/var/log/sdw.log StandardError=file:/var/log/sdw.log WorkingDirectory=/root/stable-diffusion-webui/ ExecStart=/bin/bash -c 'source /root/miniconda3/bin/activate && conda activate sdw && bash /root/stable-diffusion-webui/webui.sh' Restart=on-failure [Install] WantedBy=multi-user.target 

启用服务:

systemctl daemon-reload systemctl restart sdw systemctl enable sdw 

2. 端口转发配置

方法1:SSH 端口转发
ssh -L 192.168.1.63:7860:127.0.0.1:7860 [email protected] 
方法2:HAProxy 转发
# 安装 HAProxyaptinstall haproxy -y 

修改配置文件 /etc/haproxy/haproxy.cfg,添加以下内容:

listen haihe_proxy_gateway_https mode tcp bind 192.168.1.64:80 # 替换为实际IP balance roundrobin option tcpka option tcplog server hostname 127.0.0.1:7860 check inter 2000 rise 2 fall 5 

启动服务:

systemctl enable haproxy systemctl start haproxy 

通过 http://192.168.1.64/ 访问(替换为实际IP)

四、模型管理与使用

1. 模型下载与安装

推荐从以下平台下载高质量模型:

  • Hugging Face:https://huggingface.co/models
  • Civitai:https://civitai.com/models

下载后将模型文件(通常为 .safetensors.ckpt 格式)放入目录:

/root/stable-diffusion-webui/models/Stable-diffusion/ 

在 WebUI 界面中刷新模型列表即可选择使用。

2. 基础使用示例

  • 正向提示词(Prompts)1girl, face, white background
  • 反向提示词(Negative Prompts)(worst quality:2), (low quality:2), lowres, watermark

反向提示词用于排除不想要的特征(如低质量、水印等)。

五、常见问题解决

1. 缺少 xdg-open 错误

aptinstall xdg-utils desktop-file-utils -y 

2. 本地访问代理问题

exportno_proxy="localhost, 127.0.0.1, ::1"

六、汉化配置

  1. 进入 WebUI 的 “Extensions” 选项卡
  2. 点击 “Install from URL”,输入仓库地址:https://github.com/VinsonLaro/stable-diffusion-webui-chinese
  3. 点击 “Install”,安装完成后重启界面
  4. 进入 “Settings” → “User interface”,在 “Localization” 中选择 “Chinese-All” 或 “Chinese-English”
  5. 点击 “Apply settings” 并 “Reload UI” 完成汉化

Read more

前端·基础三件套『课堂随笔』

前端·基础三件套『课堂随笔』

Zero·前言 * 前端开发的概述 前端开发(Front-end Development)是指创建网站或Web应用程序用户界面(UI)及用户体验(UX)部分的过程,涉及用户直接与之交互的所有内容。 通常我们说的前端就是 WEB前端,也就是写网页的~ 核心职责 * 界面实现:将设计稿转化为可交互的网页(切图仔) * 用户体验优化:确保界面响应迅速、操作流畅 * 浏览器兼容性:保证在不同浏览器和设备上表现一致 * 性能优化:提高页面加载速度和运行效率 * 与后端协作:通过API获取和提交数据 核心技术栈 * 基础三件套 * HTML:页面结构和内容 * CSS:样式和布局 * JavaScript:交互逻辑和行为 * 现代技术生态 * 框架/库:Vue、React、Angular等 * CSS预处理器:Sass、Less * 构建工具:Vite、Webpack、Parcel * 包管理器:

AWPortrait-Z WebUI历史管理技巧:JSONL日志解析+自定义标签分类脚本

AWPortrait-Z WebUI历史管理技巧:JSONL日志解析+自定义标签分类脚本 AWPortrait-Z 基于Z-Image精心构建的人像美化LoRA 二次开发webui构建by科哥 AWPortrait-Z 基于Z-Image精心构建的人像美化LoRA 二次开发webui构建by科哥 你是否遇到过这样的情况:生成了几十张人像图,想快速找出“戴眼镜的亚洲女性”或“油画风格+暖光+特写”的作品,却只能靠肉眼一张张翻历史缩略图?或者想复现某次惊艳效果,却记不清当时用的是哪个随机种子、LoRA强度设为多少?AWPortrait-Z 的历史记录功能虽已提供基础回溯能力,但默认的 JSONL 日志文件只是原始参数快照——它不带语义、不支持搜索、无法按业务维度归类。本文不讲怎么调参、不重复界面操作,而是聚焦一个被多数用户忽略却极具生产力价值的环节:让历史真正“活”起来。我们将手把手带你完成三件事:读懂 history.jsonl 的真实结构、用 Python 脚本自动提取关键特征、建立可扩展的标签体系并实现一键分类归档。所有代码均可直接运行,无需额外依赖,小白也能在15分钟内让自己的

前端监控:别让你的应用在黑暗中运行

前端监控:别让你的应用在黑暗中运行 毒舌时刻 这应用运行得跟幽灵似的,出了问题都不知道。 各位前端同行,咱们今天聊聊前端监控。别告诉我你还在等用户反馈问题,那感觉就像在没有监控的仓库里放贵重物品——能放,但丢了都不知道。 为什么你需要前端监控 最近看到一个项目,用户反映页面经常崩溃,但开发团队根本不知道问题出在哪里。我就想问:你是在做应用还是在做猜谜游戏? 反面教材 // 反面教材:没有监控 function App() { const [data, setData] = React.useState([]); useEffect(() => { async function fetchData() { try { const response = await fetch('/api/data'); const result = await response.json(); setData(result); } catch (error)

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程

在Ubuntu 20.04上安装Ollama并部署大型语言模型:含Open WebUI图形界面教程 引言 在人工智能浪潮席卷全球的今天,大型语言模型(LLM)不再是遥不可及的云端技术。借助 Ollama,每一位开发者都能轻松地将强大的模型部署在自己的本地计算机上,实现无缝、私密且可定制的AI体验。本文将带领您一步步在 Ubuntu 20.04 系统上完成 Ollama 的安装与模型部署,并最终搭建美观易用的图形化界面(Open webui)。 Ollama 是什么? Ollama 是一个开源项目,专为在本地运行、管理和部署大型语言模型(如 Llama 3、Mistral、Gemma 等)而设计。 它的核心概念与优势非常清晰: * 简单易用:通过简单的命令行工具,即可完成模型的下载(pull)、运行(run)和管理。一条命令就能启动与模型的对话。 * 丰富的模型库:它提供了官方支持的模型库(Ollama