扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

扩散模型详解:从DDPM到Stable Diffusion再到DiT的技术演进

1.摘要

扩散模型(Diffusion Models)作为当前最热门的生成模型之一,已彻底改变图像生成领域,本文从DDPM开始,逐步深入到Stable Diffusion和DiT架构。

扩散模型就像是一个"破坏-修复"的过程,想象一下你有一张美丽的图片,然后一点点地给它加上噪声,直到完全看不清原来的图片,然后让AI学会如何一步步把噪声去掉,重新还原出原始图片。这就是扩散模型的基本思路。


2. DDPM:扩散模型的奠基之作(2020年)

2.1 什么是DDPM?

DDPM(Denoising Diffusion Probabilistic Models)是扩散模型的开山鼻祖,由OpenAI团队在2020年提出,它的工作原理:

前向过程(加噪声):从一张清晰的图片开始,逐步添加噪声,最终变成完全随机的噪声图。 反向过程(去噪声):训练AI学会如何一步步去除噪声,从随机噪声中重建出原始图片。

2.2 DDPM的模型结构详解

DDPM的核心是一个U-Net网络结构,U-Net详细架构如下图:

2.3 训练过程

DDPM需要训练很多轮次,每次告诉AI:"这是加了噪声的图片,这是原始图片,请你学会如何从噪声中恢复原图"。经过大量训练后,AI就学会了去噪技能。

2.4 推理过程

推理时,AI从完全随机的噪声开始,一步步"想象"出完整的图片。这个过程通常需要几十到几百步才能完成。

2.5 DDPM的特点

  • 优点:生成质量高,理论基础扎实
  • 缺点:训练和推理都很慢,通常需要1000步才能生成一张图片
  • 应用场景:学术研究,为后续模型提供理论基础

3. Stable Diffusion:实用化的突破(2022年)

3.1 为什么需要Stable Diffusion?

DDPM虽然效果不错,但有个致命缺点:计算成本太高!一张512×512的图片需要在像素级别上进行扩散,计算量巨大。2022年,Stable Diffusion横空出世,解决了这个问题。

3.2 Stable Diffusion的创新

Stable Diffusion最大的创新是潜在空间扩散

  • 传统方法:直接在原始图像空间(如512×512像素)进行扩散
  • Stable Diffusion:先将图像压缩到潜在空间(如64×64),在潜在空间进行扩散,最后再解压回原空间

这样计算量减少了约16倍,使得扩散模型变得实用起来。

3.3 文本到图像生成

Stable Diffusion另一个重要特性是支持文本到图像生成:

  • 使用CLIP模型将文本转换为语义向量
  • 在扩散过程中加入文本条件,指导图像生成
  • 用户可以通过文字描述生成想要的图片

3.4 Stable Diffusion的意义

  • 实用性强:可以在普通GPU上运行
  • 开源免费:推动了AI绘画的普及
  • 生态丰富:大量社区模型和插件

3. Stable Diffusion:实用化的突破(2022年)

3.1 为什么需要Stable Diffusion?

DDPM虽然效果不错,但有个致命缺点:计算成本太高!一张512×512的图片需要在像素级别上进行扩散,计算量巨大。2022年,Stable Diffusion横空出世,解决了这个问题。

3.2 Stable Diffusion的创新

Stable Diffusion最大的创新是潜在空间扩散

  • 传统方法:直接在原始图像空间(如512×512像素)进行扩散
  • Stable Diffusion:先将图像压缩到潜在空间(如64×64),在潜在空间进行扩散,最后再解压回原空间

这样计算量减少了约16倍,使得扩散模型变得实用起来。

3.3 文本到图像生成

Stable Diffusion另一个重要特性是支持文本到图像生成:

  • 使用CLIP模型将文本转换为语义向量
  • 在扩散过程中加入文本条件,指导图像生成
  • 用户可以通过文字描述生成想要的图片

3.4 Stable Diffusion的意义

  • 实用性强:可以在普通GPU上运行
  • 开源免费:推动了AI绘画的普及
  • 生态丰富:大量社区模型和插件

4. DiT:拥抱Transformer时代(2023年)

4.1 为什么用Transformer?

随着Transformer在NLP领域的巨大成功,研究者们开始思考:能否用Transformer来改进扩散模型?2023年,DiT(Diffusion Transformer)应运而生,将纯Transformer架构引入扩散模型。

4.2 DiT的创新点

架构革新

  • 用Transformer替换传统的CNN架构
  • 采用纯Transformer的骨干网络
  • 更好的可扩展性和并行化能力

性能提升

  • 大模型展现更好的生成质量
  • 训练稳定性显著提高
  • 可扩展性更强

4.3 DiT vs 传统方法

特性

传统UNet

DiT

架构

CNN

Transformer

可扩展性

中等

很好

训练稳定性

一般

很好

全局建模

需要多层

天然全局


5. 扩散模型发展时间线

2020年 - DDPM:奠定扩散模型理论基础
  ↓
2021年 - Improved DDPM:各种改进和优化
  ↓  
2022年 - Stable Diffusion:实用化突破,潜在空间扩散
  ↓
2023年 - DiT:Transformer架构,可扩展性大幅提升
  ↓
2024年至今 - 各种变体和优化:蒸馏、量化、多模态等

5.1 技术演进路径

  • DDPM (2020):基础理论,像素级扩散,计算成本高
  • Latent Diffusion (2022):潜在空间扩散,大幅降低计算成本
  • DiT (2023):Transformer架构,更好的可扩展性

5.2 DIT和Stable Diffusion模型区别

Stable Diffusion

  • 架构:U-Net + 卷积神经网络
  • 特点:在潜在空间工作,计算效率高
  • 优势:成熟稳定,生态完善
  • 缺点:架构相对传统,扩展性有限

DiT (Diffusion Transformer)

  • 架构:纯Transformer架构
  • 特点:将扩散过程完全用Transformer处理
  • 优势:更好的扩展性,更容易scale up
  • 缺点:计算量更大,需要更多资源

DiT参考了Stable Diffusion的思想,借鉴了扩散模型的基本框架,但将传统的U-Net架构替换为Transformer架构,这是架构层面的重大革新。

注:Stable Diffusion 就是 Latent Diffusion 的一个具体实现,Stable Diffusion = Latent Diffusion + 文本条件 + 稳定性优化

5.3 VIT模型和DIT模型关系

DiT是ViT思想在生成领域的成功应用,为什么这么说呢?DIT参考了ViT的思路将扩散模型由U-Net改用Transformer。

ViT (Vision Transformer, 2020年)

  • 开创性工作:将Transformer架构首次成功应用于图像识别
  • 基本思路:把图像切成小块(patch),当作"单词"输入Transformer
  • 主要应用:图像分类任务

DiT (Diffusion Transformer, 2022年底)

  • 继承关系:基于ViT的成功经验,将Transformer应用于扩散模型
  • 核心创新:用Transformer替换传统的U-Net架构
  • 主要应用:图像生成任务

相同点

  1. 都使用Transformer架构
  2. 都采用patch处理方式
  3. 都利用自注意力机制
  4. 都有良好的扩展性

不同点

方面

ViT

DiT

任务类型

图像分类

图像生成

输入

静态图像

噪声 + 时间步长

输出

分类标签

去噪后的图像

核心

特征提取

扩散过程建模

ViT优势

  • 在分类任务上表现优异
  • 训练相对简单
  • 计算效率高

DiT优势

  • 在生成任务上表现更好
  • 扩展性更强
  • 生成质量更高

6. 当前业界主流扩散模型

6.1 开源模型系列

Stable Diffusion系列

  • Stable Diffusion 1.x (2022):最初的版本,奠定了基础架构
  • Stable Diffusion 2.x (2022):改进了CLIP模型,支持更大的图像尺寸
  • Stable Diffusion XL (SDXL, 2023):更大的模型,更高的图像质量
  • Stable Diffusion 3 (2024):最新的版本,进一步提升了生成质量

其他开源模型

  • DALL-E系列:OpenAI的文本到图像模型
  • Imagen:Google的高质量扩散模型

6.2 不同场景的选择

学术研究

  • DDPM:理解扩散模型基础
  • DiT:探索Transformer架构

商业应用

  • SDXL:平衡质量与效率
  • 定制化模型:根据具体需求调整

6.3 当前主流(2024-2025年)

  1. Midjourney系列 - 基于改进的扩散模型
  2. DALL-E 3 - 结合多种技术的混合模型
  3. Stable Diffusion XL (SDXL) - SD的升级版
  4. Runway、Leonardo等平台 - 基于各种扩散模型变体

6.4 具体领域

  • AI绘画:主要是Stable Diffusion变体 + 各家自研改进
  • AI漫画:专门针对动漫风格优化的SD模型
  • 商业应用:多基于Stable Diffusion开源生态

6.5 趋势变化

  • 早期:Stable Diffusion为主流
  • 现在:各大公司都在基于扩散模型开发私有模型
  • 未来:DiT等Transformer架构可能成为新趋势

目前大多数应用仍基于Stable Diffusion生态,但高端应用开始采用DiT等新架构。未来可能会逐步向Transformer架构迁移。


7. 总结

扩散模型的发展历程体现了AI领域的快速迭代:

  • DDPM (2020):奠定了理论基础,但计算成本高
  • Stable Diffusion (2022):实现了实用化突破,潜在空间扩散
  • DiT (2023):开启了Transformer时代,更好的可扩展性

这些模型不仅在技术上不断创新,也在实际应用中产生了巨大影响,从学术研究到商业产品,扩散模型正在重塑我们创造和处理视觉内容的方式。

Read more

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

【Dify】使用 python 调用 Dify 的 API 服务,查看“知识检索”返回内容,用于前端溯源展示

本文介绍了如何使用Dify HTTP API实现聊天问答功能,支持文本和图文交互。主要包含三个核心接口:上传文件获取ID、发送聊天消息(可携带图片)和删除会话。 脚本提供了极简封装类DifyChat,包含安全响应解析和可选会话管理功能。使用时需配置API地址、密钥和用户标识,支持纯文本问答和图文问答两种模式,并详细说明了流式输出、多用户适配等扩展场景的实现方法。 参考链接:对接Dify的api接口 上传文件、发起对话、删除对话 一、Dify 聊天示例脚本说明 本脚本演示了如何通过 Dify HTTP API 进行聊天问答,并可选携带图片。核心流程: 1. 上传文件(可选) * 调用 /v1/files/upload 上传本地图片,得到 upload_file_id。 * 只有在需要图文问答时才上传;纯文本时可跳过。 2. 发送对话消息 * 调用 /v1/chat-messages,

Qwen3-VL-WEBUI显存优化方案:4090D单卡高效运行部署案例

Qwen3-VL-WEBUI显存优化方案:4090D单卡高效运行部署案例 1. 背景与挑战 随着多模态大模型在视觉理解、图文生成和智能代理等场景的广泛应用,Qwen3-VL 系列作为阿里云推出的最新一代视觉-语言模型,凭借其强大的图文融合能力、长上下文支持(最高可达1M tokens)以及对视频动态建模的深度优化,迅速成为行业关注焦点。 然而,高性能往往伴随着高资源消耗。以 Qwen3-VL-4B-Instruct 为例,该模型参数量达40亿,在标准FP16精度下加载需占用约8GB显存,若叠加推理过程中的KV缓存、图像编码器开销及WebUI框架本身资源占用,常规部署极易突破24GB显存上限——这对消费级显卡如NVIDIA RTX 4090D(24GB VRAM)构成了严峻挑战。 本文基于真实项目实践,提出一套完整的显存优化+工程调优组合策略,成功实现 Qwen3-VL-WEBUI 在单张RTX 4090D上稳定、高效运行,为中小企业和个人开发者提供低成本、可落地的本地化多模态推理解决方案。 2. 技术选型与架构解析 2.1 Qwen3-VL-WEBUI 核心特性回顾

Spring Boot携手Leaflet,点亮省级旅游口号WebGIS可视化之路

Spring Boot携手Leaflet,点亮省级旅游口号WebGIS可视化之路

目录 前言 一、旅游口号信息管理 1、写在前面的 2、空间属性关联 二、SpringBoot后台实现 1、系统调用时序图 2、Mapper数据查询实现 3、控制层接口实现 三、Leaflet集成实现WebGIS 1、省级数据展示及可视化 2、东北三省旅游口号 3、长三角城市群口号 4、珠三角旅游口号 5、西北地区旅游口号 四、总结 前言         在当今数字化浪潮汹涌澎湃的时代,地理信息系统(GIS)技术正以前所未有的速度改变着我们对世界的认知与探索方式。它不仅为科学研究提供了强大的工具,更在旅游、城市规划、环境保护等诸多领域展现出巨大的应用潜力。而当我们将目光聚焦于旅游行业,一个充满活力与创新的领域,GIS技术的应用更是如鱼得水,为旅游体验的提升和旅        游管理的优化带来了全新的机遇。         省级旅游口号作为各地旅游宣传的重要名片,承载着地域文化的精髓与旅游资源的亮点,是吸引游客、塑造旅游品牌形象的关键要素。然而,传统的旅游口号宣传方式往往局限于文字、

基于YOLO26/11/v8算法的Web目标检测系统,人脸表情识别系统,Django+Vue3 的前后端分离,实现摄像头实时识别,YOLO26/YOLO11/v8 + LLM大模型智能分析,科研必备

基于YOLO26/11/v8算法的Web目标检测系统,人脸表情识别系统,Django+Vue3 的前后端分离,实现摄像头实时识别,YOLO26/YOLO11/v8 + LLM大模型智能分析,科研必备

✨ 更新日志 * ✔️ 2026/3/3,2.0 版本,前端导航栏改为侧边栏系统,视频流采用websocket框架延迟更低, YOLO26/YOLO11/YOLOv8 视频流更稳定,在之前的系统增加 LLM 大模型智能分析,是科研必备,支持 YOLO26/11/v8 分类模型、目标检测、分割、obb、关键点检测任务,还支持双模型联合检测与识别,如人脸表情识别、人脸识别等一些识别任务需要检测模型与分类模型共同完成,在人脸表情识别中,单独使用检测模型去识别人脸表情也不是不可以,但有一个问题数据集如果全是头部照片的话,当模型预测的照片是全身照片时,模型识别准确率就没有这么高了, 那么这时候可以用检测模型识别人脸,把人脸信息输入到表情分类模型进行分类即可,反正这是一个通用的系统,更换自己模型即可,大家懂得都懂的,更多功能看下文即可。 摘要 在人工智能迈向通用化(AGI)的今天,“视觉感知 + 语言理解”的多模态联合是未来的趋势。单纯的检测画框已经无法满足复杂的业务需求,如何让系统“看懂”