Stable Diffusion 文生图保姆级入门指南
Stable Diffusion 是基于扩散模型的开源图像生成工具。本文详细介绍了文生图模式下的核心参数配置,包括模型选择、提示词权重、采样方法与迭代步数设置。内容涵盖界面功能解析、高分辨率修复策略、批处理优化及进阶的局部重绘与 ControlNet 应用。文章旨在帮助用户理解 SD 工作原理,规避常见显存与生成问题,建立规范的 AI 绘画工作流。

Stable Diffusion 是基于扩散模型的开源图像生成工具。本文详细介绍了文生图模式下的核心参数配置,包括模型选择、提示词权重、采样方法与迭代步数设置。内容涵盖界面功能解析、高分辨率修复策略、批处理优化及进阶的局部重绘与 ControlNet 应用。文章旨在帮助用户理解 SD 工作原理,规避常见显存与生成问题,建立规范的 AI 绘画工作流。

Stable Diffusion(简称 SD)是一款基于扩散模型的开源人工智能图像生成工具。它允许用户通过文本提示词(Prompt)生成高质量的图像,广泛应用于艺术创作、设计辅助及概念验证等领域。
在使用 SD 之前,建议确保硬件环境满足基本要求:
模型是 SD 的核心,不同的 Checkpoint 文件决定了图像的整体风格、画质和细节表现。常见的模型类型包括写实类、二次元类及混合风格类。
推荐模型下载站点:
提示词分为正向提示词(Positive Prompt)和反向提示词(Negative Prompt)。
权重规则:
(keyword:1.2) 的形式单独增加特定词汇的权重。一般设定在 20~30 步之间,具体取决于所选的大模型。
SD 提供多种采样算法,适用于不同场景:
主要用于修复扭曲的人脸,适用于真人场景。如果生成的人物脸部崩坏,可勾选此选项进行自动优化。
可实现图像的无缝拼贴效果,适用于生成花纹、背景纹理等场景。
默认情况下,文生图在较高分辨率下(宽高大于 756 像素)制作图像可能出现混沌现象。开启该选项可先生成低分辨率底图,再放大并修复细节。
常用放大算法:
即生成图片的分辨率。设置主要受限于显卡显存大小,显存越大,可设置的分辨率越高。
控制最终出图与提示词的匹配程度,一般范围在 3~11 之间,具体与模型有关。
用于修改图片中的特定区域。选中区域后输入新的提示词,SD 仅对该区域进行重新生成,保持其他部分不变。
用于扩展图片边界,根据周围内容智能填充画布外的区域。
ControlNet 是一种强大的控制网络,允许用户通过边缘检测、深度图、姿态骨架等条件精确控制生成图像的结构和构图,是实现精准创作的关键工具。
--medvram 启动参数。掌握 Stable Diffusion 需要一定的实践积累。建议从基础参数调整开始,逐步熟悉提示词工程与模型管理。随着 AI 技术的普及,具备 AI 绘图技能将成为职场中提升效率的重要能力。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online