关于 ComfyUI 的 Windows 本地部署系统环境教程(详细讲解Windows 10/11、NVIDIA GPU、Python、PyTorch环境等)

在本地部署 ComfyUI 时,确保 Python、PyTorch、CUDA
等组件的版本能完美匹配,这对避免安装报错和保证稳定运行至关重要。
以下内容是整合了一份核心组件的版本适配对照表,并配上不同显卡的配置建议,希望能帮助你顺利部署。

一、准备阶段

1. 系统与硬件确认

  • 确保你的系统为 Windows 10 或更高版本。
  • 拥有一块 NVIDIA 显卡(最好支持较新 CUDA 架构)。
  • 显存建议至少 6-8 GB,如果你要做高清、大分辨率或多插件 (ControlNet/LoRA) 的生成,建议 12 GB 以上
  • NVIDIA 驱动建议更新为与所选 CUDA 版本兼容的最新驱动。
    • 你可运行 nvidia-smi 在终端查看当前驱动版本及支持的 CUDA 最高版本。
  • 硬盘建议为 SSD,并有充足可用空间(模型、缓存、生成文件会占不少)。

2. 确定软件版本路线

根据 ComfyUI 官方“System Requirements”页面:

  • 推荐使用 Python 3.12。 (docs.comfy.org)
  • PyTorch 必须安装带有 CUDA 支持的版本(你的显卡架构 + 驱动必须支持该 CUDA)– 因为 PyTorch 二进制包通常附带 CUDA 运行时。 (PyTorch Forums)
  • 对于最新一代 NVIDIA (“Blackwell” 架构,比如 50 系列) 需要 PyTorch 编译为 cu128(即 CUDA 12.8)版本。 (GitHub)
  • 注意:安装 CUDA ToolKit 本身并不总是必需 — 关键是 PyTorch 二进制包支持你的显卡架构与驱动。 (PyTorch Forums)

因此,你可根据自己的 GPU 架构及驱动状态,选择适合的版本路线。下面以一种较通用、稳定的方案为主。


二、版本推荐表(参考)

下面是根据当前社区经验 + ComfyUI 官方建议整理的一个 参考版本组合。你可根据自己显卡架构/驱动情况做调整。

组件推荐版本说明
Python3.12.x官方推荐。若已有 3.10/3.11,也可,但建议使用最新兼容版本。 (docs.comfy.org)
PyTorch2.7.x(带 cu12.8 支持)如果你的显卡为较新一代(如 RTX 50 系列),建议使用带 cu128 的 PyTorch。 (GitHub)
CUDA(或 PyTorch 自带 CUDA 支持)12.8 (即 cu128) 或 12.1 (cu121)若你的 GPU 及驱动支持,使用 12.8 能更好支持新架构。官方文档中“pytorch-cuda=12.1”示例用于安装。 (docs.comfy.org)
cuDNN与所用 CUDA 支持版本匹配若你手动安装 CUDA Toolkit,则需安装匹配的 cuDNN。若使用 PyTorch 二进制包,可省略手动 cuDNN 安装。
ComfyUI 本体版本最新稳定版本建议下载 ComfyUI 官方最新稳定版;便于插件、节点支持。
显存至少 8 GB,推荐 12 GB+对于基础图片生成,8 GB 基本可用;但若用到扩展、高清分辨率建议更多。
提示:如果你的显卡较旧(如 GTX 10 系列或 8 GB 以下显存)仍可运行,但可能受限如分辨率低、速度慢、插件支持弱。

三、详细安装步骤(以 “手动安装 + 虚拟环境” 为例)

下面是详细步骤,从无环境状态开始。你已经有 Node.js、Vue、MongoDB 等开发环境,但这里是部署 ComfyUI 所需的 Python/GPU 环境。

1. 安装 Python

  1. python.org 下载并安装 Python 3.12.x(建议勾选 “Add Python to PATH”)。
  2. 建议安装 Miniconda(或 Anaconda)来管理虚拟环境,以便隔离项目。
  3. 安装完成后,打开命令行(Win+R → cmd)输入 python --version 确认版本。

2. 创建虚拟环境

conda create -n comfyui_env python=3.12 conda activate comfyui_env 

(或使用 python -m venv comfyui_env + .\comfyui_env\Scripts\activate

3. 安装 PyTorch(带 GPU 支持)

根据你的显卡/驱动,选择适当 CUDA 版本:

或使用 pip 方式:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128 

注意:若安装完毕输入 python -c "import torch; print(torch.cuda.is_available())" 返回 True,表示 GPU 支持正常。

若你的驱动较新、显卡为 RTX 50 系列或类似,建议使用 cu128:

conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia 

(上述命令示例为 12.1 版本,若已有 12.8 也可查 PyTorch 官方 cu128 wheel) (docs.comfy.org)

4. 下载并安装 ComfyUI

启动 ComfyUI:

python main.py 

或根据 README 中提示执行启动脚本。启动后,通常浏览器会自动打开 ComfyUI 界面。

安装依赖:

pip install -r requirements.txt 

若你仅安装了 PyTorch + CUDA,通常不需要额外安装 CUDA Toolkit 本身。 (docs.comfy.org)

从 ComfyUI 官方 GitHub 仓库或官网克隆代码:

git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI 

(或下载 zip 文件解压)

5. 配置模型与插件

  • 在 ComfyUI 主界面或安装目录下,找到 models/checkpoints 或类似路径,将你的 Stable Diffusion 模型(如 .safetensors 文件)放入该目录。
  • 若你使用 ControlNet、LoRA、插件节点等,建议确认这些插件支持你当前 PyTorch/CUDA 版本。社区中有用户反映:某些自定义节点可能因 PyTorch 版本变化而出错。 (Hugging Face Forums)
  • 配置额外模型或自定义节点路径可通过 extra_model_paths.yaml 文件进行。 (docs.comfy.org)

6. 验证环境

在虚拟环境中运行 Python,输入以下代码验证:

import torch print("Python version:", torch.__version__)print("CUDA available:", torch.cuda.is_available())print("CUDA version:", torch.version.cuda)print("GPU device:", torch.cuda.get_device_name(0))

如果输出显示 CUDA available: True 且能够正确识别 GPU,则说明环境配置基本正常。

7. 常见问题排查

  • 若出现 Torch not compiled with CUDA enabled 之类错误,说明你安装的 PyTorch 版本不含 GPU 支持版本。 (PyTorch Forums)
  • 若出现显卡架构不支持(如 “sm_52” 不在支持列表)错误,说明你的显卡太旧可能无法运行最新版本。 (ComfyUI)
  • 驱动版本过旧亦常见错误:请用 nvidia-smi 检查你的驱动是否支持所选 CUDA 版本。
  • 模型/插件版本与 ComfyUI 版本或节点版本不匹配,也可能导致错误。建议插件版本与 ComfyUI 社区推荐版本同步。

若使用 Portable 版本(预打包)时,可能不需要手动安装 PyTorch / CUDA Toolkit。社区中有人指出:

“Cuda and pytorch are already included in comfyui Portable” (Reddit)
但手动安装方式仍建议按上述流程。

四、小建议与优化

  • 若你只是做一般的图片创作(插画、头像、512×512 分辨率),显存 8-10 GB 的显卡即可。若要做超高清(4K以上)、多控制节点、多模态生成,建议显存 12-16 GB 或更高。
  • 虚拟环境管理非常重要:避免系统级 Python 污染、包冲突。
  • 常备备份:你的模型、插件、自定义节点建议备份,以便升级或迁移时能快速复原。
  • 检查网络与镜像源:若在国内或网络受限环境,建议配置 PyPI 镜像(如 清华、阿里云)或使用离线包。 (comfyui-wiki.com)

若将来升级显卡(如 RTX 50 系列),可能需要切换至 cu128 版本的 PyTorch。社区提醒:

“To get your nvidia 50 series GPU working with ComfyUI you need a pytorch that has been built against cuda 12.8” (GitHub)

转载吱一声~

Read more

从部署到应用|Qwen3-VL-WEBUI全链路使用指南

从部署到应用|Qwen3-VL-WEBUI全链路使用指南 在多模态AI快速演进的今天,开发者面临的最大挑战不再是“有没有能力”,而是“能不能用得起来”。一个模型参数再大、功能再强,如果需要复杂的环境配置、昂贵的GPU资源和漫长的调试流程,那它对大多数团队而言依然是空中楼阁。 而 Qwen3-VL-WEBUI 的出现,正在彻底改变这一现状。作为阿里开源的视觉-语言模型集成平台,它内置了最新一代 Qwen3-VL-4B-Instruct 模型,提供开箱即用的网页交互界面,真正实现了“一键启动、无需下载、即点即用”的极简体验。 本文将带你完整走通从镜像部署、服务启动、网页访问到实际应用的全链路流程,深入解析其核心能力与工程实践要点,助你快速上手并落地真实场景。 为什么选择 Qwen3-VL-WEBUI? 传统多模态模型部署往往面临三大痛点: 1. 依赖复杂:需手动安装 PyTorch、Transformers、Vision Encoder 等数十个库; 2. 显存要求高:多数 VLM 模型至少需要 24GB 显存,普通设备无法运行;

By Ne0inhk

黑马程序员java web学习笔记--后端进阶(二)SpringBoot原理

目录 1 配置优先级 2 Bean的管理 2.1 Bean的作用域 2.2 第三方Bean 3 SpringBoot原理 3.1 起步依赖 3.2 自动配置 3.2.1 实现方案 3.2.2 原理分析 3.2.3 自定义starter 1 配置优先级 SpringBoot项目当中支持的三类配置文件: * application.properties * application.yml ❤ * application.yaml 配置文件优先级排名(从高到低):properties配置文件 > yml配置文件 > yaml配置文件 虽然springboot支持多种格式配置文件,但是在项目开发时,推荐统一使用一种格式的配置。

By Ne0inhk
【前端】-音乐播放器(源代码和结构讲解,大家可以将自己喜欢的歌曲添加到数据当中,js实现页面动态显示音乐)

【前端】-音乐播放器(源代码和结构讲解,大家可以将自己喜欢的歌曲添加到数据当中,js实现页面动态显示音乐)

前言:音乐播放器是前端开发中的一个经典项目,通过它可以掌握很多核心技术,如音频处理、DOM操作、事件监听、动画效果等。这个项目不仅能提升前端开发的技能,还能让开发者深入理解JavaScript与HTML的协同作用。 页面展示: 歌曲页面+列表(html代码): 录视频时音乐有点卡顿,大家看视频效果就行  git链接:密码生成器: 用来生成密码的小项目  下面有详细的注释讲解,大家可以对照着上图中的结构进行理解,当然也可以自己写,大家了解我的思路就行 <div> <div> <!-- 歌曲信息卡片(隐藏页面) --> <div> <div> <div> <h4>我记得</h4>

By Ne0inhk
【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦

【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦

目录 【前端实战】构建 Vue 全局错误处理体系,实现业务与错误的清晰解耦 一、为什么要做全局错误处理? 1、将业务逻辑与错误处理解耦 2、为监控和埋点提供统一入口 二、Vue 中的基础全局错误处理方式 1、Vue 中全局错误处理写法 2、它会捕获哪些错误? 3、它不会捕获哪些错误? 4、errorHandler 的参数含义 三、全局错误处理的进阶设计 1、定义“可识别的业务错误” 2、在 errorHandler 中做真正的“分类处理” 3、补齐 Promise reject 的捕获能力 4、错误处理的策略化封装 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“

By Ne0inhk