ComfyUI v0.18.0 发布:显存与内存极限优化、VAE架构全面进化、API节点与前端生态深度升级

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本概览:一次“以稳定性与性能为核心”的里程碑更新

ComfyUI v0.18.0 于 2026 年 3 月 21 日 正式发布,这是一个不可变版本(仅允许修改发布标题与说明),也是目前为止变更密度最高、底层改动最深的一次版本更新之一。

本次更新共计:

  • 53 次提交
  • 79 个文件变更
  • 22 位贡献者
  • 覆盖 核心推理、VAE、显存管理、训练、API 节点、前端、工作流模板、CLI 参数、跨平台支持

整体方向可以总结为四个关键词:

更省显存 · 更稳内存 · 更强扩展 · 更一致的数据类型体系

二、显存与内存管理:v0.18.0 的绝对核心

1. VAE 内存优化达到新高度(LTX / WAN / 视频 VAE 全覆盖)

这是本次更新中最重要、也是改动最多的部分。

主要变化包括:
  • LTX VAE 解码显存多轮削减
    • 解码阶段峰值内存显著下降
    • 中间结果在 intermediate_device 上累积
    • 解码流程改为更细粒度的 chunk 处理
  • LTX VAE 编码器新增分块机制
    • 编码阶段支持 chunked encoder
    • CPU IO 分块加载,显著降低显存压力
  • WAN VAE 显存优化
    • 避免大分辨率下的 OOM
    • Tiler 场景更安全
  • 视频 VAE 修复显存泄漏
    • 修复 tiler fallback 场景下的 VRAM leak
  • 像素空间 VAE 潜在问题修复
  • VAE 输出支持原地处理
    • 有效降低峰值 RAM 消耗
  • tiled decode 峰值内存进一步降低

结果
即使是中低显存显卡,也能稳定运行高分辨率图像、复杂视频工作流。


2. 中间数据 dtype / device 体系全面统一

ComfyUI 在 v0.18.0 中系统性推进了一个重要理念:

中间值必须严格跟随 intermediate dtype 与 device
涉及节点与模块:
  • EmptyLatentImage
  • EmptyImage
  • 多个推理中间变量
  • VAE 中间解码与编码结果
新增参数:
  • --fp16-intermediates
    • 强制中间计算使用 FP16
    • 显著降低显存占用
    • 针对部分文本编码模型存在兼容性问题,已明确标注并修复相关回归

同时:

  • 修复了 FP16 intermediates 在部分文本编码器中不生效的问题
  • 明确区分权重 dtype 与中间计算 dtype
  • Load Diffusion Model 节点中 weight_dtype 被标记为高级参数

3. 动态显存与内存安全机制增强

  • 新增命令行参数:
    • --enable-dynamic-vram
      • 可强制开启动态显存机制
  • pinned read 逻辑增加更多排除条件
    • 修复极少数情况下的输出损坏问题
  • 跳过程序退出时的模型 finalizer
    • 避免退出阶段的异常与卡死
  • atomic 写入 userdata
    • 防止程序崩溃时的数据损坏

三、推理与训练能力升级

1. 多精度与新数据格式支持

  • 新增 MXFP8 支持
  • Trainer 支持:
    • FP4
    • FP8
    • FP16
  • 原生 dtype 支持
  • 量化线性层自动求导函数

✅ 对训练场景的意义:

  • 更低显存占用
  • 更灵活的混合精度训练
  • 更适合大模型与实验性模型

2. Attention 与平台适配优化

  • AMD gfx1150 启用 PyTorch Attention
  • 针对特定模型禁用 SageAttention
    • 避免推理异常
  • Apple Silicon 文本编码器 GPU 运行尝试后回退
    • 确保稳定性优先

四、API Nodes 与模型生态升级

1. API Nodes 功能扩展

  • Tencent TextToModel / ImageToModel 节点修复
  • Nano Banana 2 新增 thought_image 支持
  • 新增 Quiver SVG 节点
  • 本地 API 与云端规范对齐
  • 模型弃用标记:
    • seedream-3-0-t2i
    • seedance-1-0-lite

2. Context Window 与条件处理能力增强

  • 新增 slice_cond
  • 支持按模型调整上下文窗口条件尺寸
  • inline context window 导入结构优化

五、前端与工作流生态更新

1. 前端版本持续迭代

  • comfyui-frontend-package 升级至:
    • 1.41.19
    • 1.41.20
    • 1.41.21
  • 使用 no-store cache header
    • 防止前端资源缓存导致的版本不一致问题

2. 工作流与 UI 体验改进

  • 工作流模板更新至 v0.9.26
  • 节点新增 essentials_category
    • 支持 Essentials 标签页
    • 新手与高频节点更易发现

六、CLI、管理器与基础设施

  • Manager 版本升级:
    • 4.1b4
    • 4.1b5
    • 4.1b6
  • comfy-aimdo 升级:
    • 0.2.11
    • 0.2.12
  • Windows 平台 RAM 释放策略优化
    • 推理速度提升
    • 内存回收更及时
  • CI 增加校验规则
    • 阻止自动生成的 AI 协作标记进入主分支

七、稳定性修复与回滚说明

本次版本也包含多个关键回滚与问题修复:

  • 回滚外部分布式缓存 API 的相关改动
  • 修复多次回归问题
  • 修复初始化变量缺失
  • 删除无效的权重初始化代码
  • 避免子类场景下错误触发延迟初始化

这些操作的核心目标只有一个:

确保 v0.18.0 在复杂真实工作流中的长期稳定运行

八、总结:为什么 v0.18.0 是“必须升级”的版本

代码地址:github.com/Comfy-Org/ComfyUI

如果你符合以下任一情况,v0.18.0 都是强烈推荐升级的版本

  • 显存 8G / 12G 甚至更低
  • 使用 LTX / WAN / 视频 VAE
  • 需要高分辨率或大批量推理
  • 关注推理稳定性与内存安全
  • 使用 API Nodes 或自动化部署
  • 进行模型训练或混合精度实验

ComfyUI v0.18.0 并不是功能堆砌型更新,而是一次深度“工程级进化”。

Read more

IntelliJ IDEA 运行 Tomcat 报错:Please, configure Web Facet first!

IntelliJ IDEA 运行 Tomcat 报错:Please, configure Web Facet first!

适用:IntelliJ IDEA Ultimate 关键点:Web Facet + Artifact(war exploded)+ Tomcat Deployment 本文同时覆盖两种项目结构: 1)普通 Web 目录结构(例如项目里有 web/WEB-INF) 2)Maven 标准结构(src/main/webapp) 0. 你遇到的现象是什么? 当你在 IDEA 里运行 Tomcat(或尝试打开浏览器访问)时,弹出提示: Browser Error Please, configure Web Facet first! 这句话的真实含义是:IDEA 还没把你的模块识别为 Web 模块,因此无法正确识别 Web 根目录、

svn的web管理后台服务svnWebUI

背景 用户需要使用web管理页面管理svn,根据网上的资料了解到国产开源的管理后台有两个,一个是svnadmin,另一个是svnwebui。对比功能和部署方式的不同,最后选择svnwebui,原因是部署方便,只需要部署jar包和java环境即可,无需其它服务,而svnadmin需要部署php、数据库服务,所以我选择最方便的工具先试用。 系统环境 麒麟v10,X64 JDK 17 Svn 1.45.5 服务部署 项目地址:https://gitee.com/cym1102/svnWebUI/#svnwebui,当前版本1.9.0,项目地址里面有更详细的说明。 下载软件 wget -O svnWebUI.jar https://gitee.com/cym1102/svnWebUI/releases/download/1.9.0/svnWebUI-1.

使用 Trae IDE 一键将 Figma 转为前端代码

在现代前端开发中,从设计稿到可用页面的交付往往需要大量重复劳动:切图、手写样式、布局调整……而借助 MCP Server - Figma AI Bridge,我们可以将 Figma 设计稿自动转换成整洁的 HTML/CSS/JS 代码,并立即生成可预览的网页。一键化、傻瓜式操作,让设计交付效率跃升。 本文测试使用的系统环境如下: * Trae IDE 版本:2.4.5 * macOS 版本:14.7 * Node.js 版本:24.6.0 * npx 版本:11.5.2 * Python 版本:3.13.3

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例

深入理解前端防抖(Debounce)与节流(Throttle):原理、区别与实战示例 📌 引言 在前端开发中,我们经常需要处理高频事件(如输入框输入、滚动、窗口调整大小等)。如果不加限制,浏览器会频繁触发回调函数,导致性能问题,甚至页面卡顿。 防抖(Debounce) 和 节流(Throttle) 是两种优化方案,可以有效控制事件触发的频率,提高应用的性能和用户体验。 本篇文章将详细解析 防抖和节流的原理、适用场景及代码实现,帮助你更好地优化前端应用。 1. 什么是防抖(Debounce)? 📝 概念 防抖是一种在事件触发后延迟执行的技术,如果在延迟期间事件被再次触发,计时器会重置,重新计算延迟时间。 核心思想:短时间内多次触发,只执行最后一次。 📌 适用场景 * 搜索框输入(防止用户每次输入都发送请求) * 窗口调整大小(resize)(防止短时间内多次触发计算) * 表单输入验证(用户停止输入后再进行验证) ✅ 代码实现 functiondebounce(fn,