第五节.Stable Diffusion大模型

第五节.Stable Diffusion大模型

🍉大模型(Stable Diffusion 模型)

大模型,也叫 Stable Diffusion 模型,是 Stable Diffusion 绘图的核心基础,所有生成效果都依赖它。


常见版本

大模型已迭代出多个版本,常见的有:

  • Stable Diffusion 1.4(SD1.4)
  • Stable Diffusion 1.5(SD1.5)
  • Stable Diffusion 2.0(SD2.0)
  • Stable Diffusion 2.1(SD2.1)
  • Stable Diffusion XL(SDXL)
  • Playground、Stable Cascade 等

对初学者来说,重点记住两个主流版本

  • SD1.5:最经典、生态最成熟,适合大多数场景
  • SDXL:新一代大模型,画质更高、细节更强

其他版本可以后续慢慢了解。

重要注意事项

SD1.5 和 SDXL 不通用

  • SD1.5 必须搭配 SD1.5 专用 的 ControlNet 等模型
  • SDXL 必须搭配 SDXL 专用 的 ControlNet 等模型用错版本会直接报错,后面会结合案例详细说明。

🍉为什么要切换不同的大模型?

要理解为什么要切换大模型,核心是搞清楚 SD1.5SDXL 这两代主力模型的区别:

1. 理论层面:SDXL 更 “强”

  • SDXL(新版本):训练用的是 1024×1024 分辨率图像
    • 理论上出图效果更好
    • 能理解更多词汇
    • 画面更精致、细节更丰富
  • SD1.5(老版本):训练用的是 512×512 分辨率图像
    • 基础能力不如 SDXL

2. 现实层面:SD1.5 更 “好用”

  • SD1.5
    • 发布早,生态极其成熟
    • 有海量微调模型、LoRA、ControlNet 等配套资源
    • 出图效果已经很好,商用场景大多够用
    • 对显卡要求低,生成速度快
  • SDXL
    • 发布晚,生态还在追赶
    • 模型体积大,对显卡要求高
    • 微调难度大,间接拖慢生态发展
    • 出图速度比 SD1.5 慢好几倍
    • 这些限制导致普及速度较慢

简单总结:

  • 追求画质、细节、表现力 → 优先用 SDXL
  • 追求速度、兼容性、生态资源 → 优先用 SD1.5

2026.1现状:SDXL 生态变好,但 SD1.5 仍主流

到 2026 年 1 月,SDXL 的生态已经比刚发布时完善很多,但 SD1.5 依然是很多人的首选。这一点很重要,因为后面用别人的 ComfyUI 工作流时,必须先看作者用的是哪个版本的大模型,再做对应调整,否则容易报错。


加速模型:LCM / Turbo / Lightning

除了官方版本,你还会遇到带 LCM、Turbo、Lightning 等后缀的模型,它们都属于加速模型

  • 背景:SDXL 对电脑性能要求高,生成速度慢,所以官方和第三方都在做加速方案。
  • 代价:加速通常会牺牲一点画质(优秀的加速模型,画质损失很小)。
  • 用途:适合需要快速出图、预览效果的场景。

刚才花了一点时间,了解两大版本的差别,那么为什么每个版本下,会有那么多的第三方模型呢?

主要是为了增强某些方面的特殊优化。

优化之后,有些模型会更适合画写实类的画面,有些是二次元,还有一些模型会很适合画幻想元素等等。这个就好比,第三节提到的“雕刻师”都是转职过的,技能上会有所偏向,平时大家使用的,也大多是这些微调的大模型,效果会更好。

🍉模型下载网站:

LibLib(哩布哩布)

LibLib 是国内的大模型分享平台,无需科学上网即可访问。

  • 经过一年多发展,已沉淀大量优质模型,包含不少原创作者的作品;
  • 同时也搬运了许多国外优秀模型,下载方便;
  • 虽有部分模型不开放下载,但绝大多数可免费获取

官方地址https://www.liblib.art/

Civitai(C 站)

Civitai 是业内老牌的模型网站,也被称作 C 站

  • 特点:模型全、更新快,配有缩略图,方便筛选;
  • 限制:需要科学上网 (魔法)才能访问;
  • 官方地址:https://civitai.com/

Hugging Face(抱脸)

Hugging Face 也被称作 “抱脸”,是一个可以下载插件、模型和代码的平台。

  • 特点:更偏向开发者,而非设计师,查找资源的操作门槛相对较高;
  • 访问限制:早期无需科学上网,现在需要科学上网才能正常访问;
  • 官方地址:https://huggingface.co/

🍉模型推荐

面对众多模型,如何挑选效果好的?

其实没有绝对标准,核心是按任务和目标选择

  • 做漫画 → 选二次元风格大模型
  • 做摄影 → 选写实类大模型

这也是 AI 绘画需要大容量硬盘的原因 —— 很多人会下载几十 G 甚至上百 G 的模型,来覆盖不同场景。

当然,也有一些公认优秀的模型,下面做简单推荐,大家可以先下载,后续使用时就不用临时等待下载了。

这里我将一些常用的模型存到了网盘里,大家可以去一键下载。
链接: https://pan.baidu.com/s/1zUVEfCKQmvYUx7JAN_1rvw 提取码: g2wp 

SD1.5

写实类模型推荐

majicMIX realistic(麦橘写实)

  • 这是一款非常优秀的真人写实模型,深受摄影师群体喜爱;
  • 生成美女等写实人像效果稳定、靠谱;
  • 下载地址:majicMIX realistic 麦橘写实

 

ChilloutMix

  • 一款老牌写实真人模型,在早期非常流行;
  • 虽然现在看技术上稍显落后,但日常使用依然可行;
  • 下载地址:ChilloutMix

 

Realistic Vision

  • 一款通用型写实大模型,适用场景广、通用性强;
  • 缺点:生成亚洲面孔时,效果不如 majicMIX realistic、ChilloutMix 出色;
  • 优点:在其他写实场景(如风景、静物、欧美人像等)中表现实用;
  • 下载地址:Realistic Vision V6.0

2.5D 模型

ReVAnimated

  • 实用性非常高,已默认打包在提供的 ComfyUI 中;
  • 若不慎删除,可在相关网站或网盘中重新下载;
  • 下载地址:ReVAnimated

 

动漫模型

Counterfeit-V2.5

  • 经典动漫风格大模型,适合二次元插画、角色生成;
  • 下载地址:Counterfeit-V2.5

 

SDXL 写实类模型推荐

XXMix_9realisticSDXL

  • 专门针对 SDXL 版本 的写实模型;
  • 解决了默认 SDXL 模型生成亚洲面孔效果不佳的问题,适合生成亚洲人像;
  • 下载地址:XXMix_9realisticSDXL

 

realisticStockPhoto_v20

 

其他模型

Juggernaut XL

  • 一款通用性较强的模型,在数字艺术类作品的生成上表现出色;
  • 下载地址:Juggernaut XL

 

🍉模型下载后,如何安装?

在 ComfyUI 中,大模型无需安装,只需放到指定文件夹即可。

  • 下载的 Stable Diffusion 大模型,放在 models 下的 checkpoints 文件夹中;
  • 可以在 checkpoints 里建二级文件夹分类存放,也可以直接放进去,ComfyUI 都能识别。

下一节,我们就基于一个实际案例,来讲解如何通过大模型来生成一张不错的图片,大家不见不散。

 

 

 

 

Read more

为什么顶尖公司都在用MCP AI Copilot?揭秘其背后的技术壁垒

第一章:MCP AI Copilot 实操入门 MCP AI Copilot 是一款面向企业级开发者的智能辅助工具,集成在主流IDE中,可自动生成代码片段、优化架构设计并提供实时安全检测。通过自然语言指令驱动,开发者能够快速构建微服务模块,显著提升编码效率。 环境准备与插件安装 使用 MCP AI Copilot 前需确保本地开发环境已配置完成: * 安装支持的 IDE(如 Visual Studio Code 或 JetBrains 系列) * 从官方市场下载并安装 "MCP AI Copilot" 插件 * 登录企业授权账户以激活智能服务 生成第一个API接口 在项目中打开一个 Go 语言文件,输入注释描述需求,例如: // 创建用户注册接口,接收用户名和邮箱,返回用户ID // MCP AI Copilot

Stable-Diffusion-v1-5-archiveWeb UI高级功能:图生图/局部重绘/蒙版编辑实操指南

Stable Diffusion v1.5 Archive Web UI 高级功能:图生图/局部重绘/蒙版编辑实操指南 1. 引言:从文生图到创意编辑 如果你已经熟悉了 Stable Diffusion v1.5 Archive 的基础文生图功能,可能会发现,仅仅依靠文字描述来生成完美的图片,有时就像在黑暗中摸索。你想要一个特定的人物姿势,但描述了半天,出来的结果总是差那么一点;或者你生成了一张不错的风景图,但天空的颜色不够理想,想单独调整一下。 这时候,就需要用到 Web UI 中更强大的“图生图”功能了。它不再是“无中生有”,而是“有中生优”。你可以上传一张参考图,让 AI 在此基础上进行二次创作、风格迁移,或者只修改图片的某个局部区域。这大大提升了创作的灵活性和可控性。 本文将带你深入探索 Stable

Meta-Llama-3-8B-Instruct模型安全:对抗攻击

Meta-Llama-3-8B-Instruct模型安全:对抗攻击 1. 引言 1.1 技术背景与研究动机 随着大语言模型(LLM)在对话系统、代码生成和指令遵循任务中的广泛应用,模型安全性问题日益凸显。Meta-Llama-3-8B-Instruct 作为 Llama 3 系列中性能与效率兼顾的中等规模模型,凭借其 80 亿参数、单卡可部署、支持 8k 上下文以及 Apache 2.0 类似的商用友好协议,迅速成为开发者构建本地化智能应用的首选之一。 然而,模型越强大,面临的潜在安全风险也越高。其中,对抗攻击(Adversarial Attacks)作为一种通过精心构造输入来误导模型输出的行为,已成为评估和保障 LLM 鲁棒性的关键挑战。这类攻击不仅可能破坏模型的正常推理能力,还可能导致信息泄露、逻辑偏差甚至被用于生成恶意内容。 1.2 本文目标与结构安排 本文聚焦于 Meta-Llama-3-8B-Instruct 模型在实际部署场景下的对抗攻击风险分析与防御策略,结合

GitHub Copilot Token告急?5招高效省流策略与Claude模型替代方案

1. GitHub Copilot Token告急?先搞清楚为什么不够用 最近不少开发者都在抱怨,GitHub Copilot的token消耗速度比预想的快得多。明明月初刚充值,不到月底就提示配额不足,被迫切换到效率较低的基础模型。这种情况我遇到过不止一次,经过反复测试发现主要有这几个原因: 首先是Agent模式的过度使用。当你在VSCode中开启Agent模式后,Copilot会进入"自动驾驶"状态,它会不断尝试各种解决方案,有时会在同一个问题上反复试错。我实测过一个简单的函数重构任务,如果全程交给Agent处理,消耗的token量是手动指导的3-5倍。 其次是上下文管理不当。Copilot每次请求都会携带当前打开的文件和聊天历史作为上下文。有次我忘记关闭一个200行的测试文件,结果接下来所有代码补全都带着这个冗余上下文,token消耗直接翻倍。后来我发现,保持工作区整洁能节省至少30%的token。 还有一个容易被忽视的问题是模型选择。默认的Claude Sonnet虽然效果不错,但它的token成本是Haiku模型的3倍。对于日常的代码补全和简单重构,切换到Haiku几乎