关于 ComfyUI 的 Windows 本地部署系统环境教程(详细讲解Windows 10/11、NVIDIA GPU、Python、PyTorch环境等)

在本地部署 ComfyUI 时,确保 Python、PyTorch、CUDA
等组件的版本能完美匹配,这对避免安装报错和保证稳定运行至关重要。
以下内容是整合了一份核心组件的版本适配对照表,并配上不同显卡的配置建议,希望能帮助你顺利部署。

一、准备阶段

1. 系统与硬件确认

  • 确保你的系统为 Windows 10 或更高版本。
  • 拥有一块 NVIDIA 显卡(最好支持较新 CUDA 架构)。
  • 显存建议至少 6-8 GB,如果你要做高清、大分辨率或多插件 (ControlNet/LoRA) 的生成,建议 12 GB 以上
  • NVIDIA 驱动建议更新为与所选 CUDA 版本兼容的最新驱动。
    • 你可运行 nvidia-smi 在终端查看当前驱动版本及支持的 CUDA 最高版本。
  • 硬盘建议为 SSD,并有充足可用空间(模型、缓存、生成文件会占不少)。

2. 确定软件版本路线

根据 ComfyUI 官方“System Requirements”页面:

  • 推荐使用 Python 3.12。 (docs.comfy.org)
  • PyTorch 必须安装带有 CUDA 支持的版本(你的显卡架构 + 驱动必须支持该 CUDA)– 因为 PyTorch 二进制包通常附带 CUDA 运行时。 (PyTorch Forums)
  • 对于最新一代 NVIDIA (“Blackwell” 架构,比如 50 系列) 需要 PyTorch 编译为 cu128(即 CUDA 12.8)版本。 (GitHub)
  • 注意:安装 CUDA ToolKit 本身并不总是必需 — 关键是 PyTorch 二进制包支持你的显卡架构与驱动。 (PyTorch Forums)

因此,你可根据自己的 GPU 架构及驱动状态,选择适合的版本路线。下面以一种较通用、稳定的方案为主。


二、版本推荐表(参考)

下面是根据当前社区经验 + ComfyUI 官方建议整理的一个 参考版本组合。你可根据自己显卡架构/驱动情况做调整。

组件推荐版本说明
Python3.12.x官方推荐。若已有 3.10/3.11,也可,但建议使用最新兼容版本。 (docs.comfy.org)
PyTorch2.7.x(带 cu12.8 支持)如果你的显卡为较新一代(如 RTX 50 系列),建议使用带 cu128 的 PyTorch。 (GitHub)
CUDA(或 PyTorch 自带 CUDA 支持)12.8 (即 cu128) 或 12.1 (cu121)若你的 GPU 及驱动支持,使用 12.8 能更好支持新架构。官方文档中“pytorch-cuda=12.1”示例用于安装。 (docs.comfy.org)
cuDNN与所用 CUDA 支持版本匹配若你手动安装 CUDA Toolkit,则需安装匹配的 cuDNN。若使用 PyTorch 二进制包,可省略手动 cuDNN 安装。
ComfyUI 本体版本最新稳定版本建议下载 ComfyUI 官方最新稳定版;便于插件、节点支持。
显存至少 8 GB,推荐 12 GB+对于基础图片生成,8 GB 基本可用;但若用到扩展、高清分辨率建议更多。
提示:如果你的显卡较旧(如 GTX 10 系列或 8 GB 以下显存)仍可运行,但可能受限如分辨率低、速度慢、插件支持弱。

三、详细安装步骤(以 “手动安装 + 虚拟环境” 为例)

下面是详细步骤,从无环境状态开始。你已经有 Node.js、Vue、MongoDB 等开发环境,但这里是部署 ComfyUI 所需的 Python/GPU 环境。

1. 安装 Python

  1. python.org 下载并安装 Python 3.12.x(建议勾选 “Add Python to PATH”)。
  2. 建议安装 Miniconda(或 Anaconda)来管理虚拟环境,以便隔离项目。
  3. 安装完成后,打开命令行(Win+R → cmd)输入 python --version 确认版本。

2. 创建虚拟环境

conda create -n comfyui_env python=3.12 conda activate comfyui_env 

(或使用 python -m venv comfyui_env + .\comfyui_env\Scripts\activate

3. 安装 PyTorch(带 GPU 支持)

根据你的显卡/驱动,选择适当 CUDA 版本:

或使用 pip 方式:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128 

注意:若安装完毕输入 python -c "import torch; print(torch.cuda.is_available())" 返回 True,表示 GPU 支持正常。

若你的驱动较新、显卡为 RTX 50 系列或类似,建议使用 cu128:

conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia 

(上述命令示例为 12.1 版本,若已有 12.8 也可查 PyTorch 官方 cu128 wheel) (docs.comfy.org)

4. 下载并安装 ComfyUI

启动 ComfyUI:

python main.py 

或根据 README 中提示执行启动脚本。启动后,通常浏览器会自动打开 ComfyUI 界面。

安装依赖:

pip install -r requirements.txt 

若你仅安装了 PyTorch + CUDA,通常不需要额外安装 CUDA Toolkit 本身。 (docs.comfy.org)

从 ComfyUI 官方 GitHub 仓库或官网克隆代码:

git clone https://github.com/comfyanonymous/ComfyUI.git cd ComfyUI 

(或下载 zip 文件解压)

5. 配置模型与插件

  • 在 ComfyUI 主界面或安装目录下,找到 models/checkpoints 或类似路径,将你的 Stable Diffusion 模型(如 .safetensors 文件)放入该目录。
  • 若你使用 ControlNet、LoRA、插件节点等,建议确认这些插件支持你当前 PyTorch/CUDA 版本。社区中有用户反映:某些自定义节点可能因 PyTorch 版本变化而出错。 (Hugging Face Forums)
  • 配置额外模型或自定义节点路径可通过 extra_model_paths.yaml 文件进行。 (docs.comfy.org)

6. 验证环境

在虚拟环境中运行 Python,输入以下代码验证:

import torch print("Python version:", torch.__version__)print("CUDA available:", torch.cuda.is_available())print("CUDA version:", torch.version.cuda)print("GPU device:", torch.cuda.get_device_name(0))

如果输出显示 CUDA available: True 且能够正确识别 GPU,则说明环境配置基本正常。

7. 常见问题排查

  • 若出现 Torch not compiled with CUDA enabled 之类错误,说明你安装的 PyTorch 版本不含 GPU 支持版本。 (PyTorch Forums)
  • 若出现显卡架构不支持(如 “sm_52” 不在支持列表)错误,说明你的显卡太旧可能无法运行最新版本。 (ComfyUI)
  • 驱动版本过旧亦常见错误:请用 nvidia-smi 检查你的驱动是否支持所选 CUDA 版本。
  • 模型/插件版本与 ComfyUI 版本或节点版本不匹配,也可能导致错误。建议插件版本与 ComfyUI 社区推荐版本同步。

若使用 Portable 版本(预打包)时,可能不需要手动安装 PyTorch / CUDA Toolkit。社区中有人指出:

“Cuda and pytorch are already included in comfyui Portable” (Reddit)
但手动安装方式仍建议按上述流程。

四、小建议与优化

  • 若你只是做一般的图片创作(插画、头像、512×512 分辨率),显存 8-10 GB 的显卡即可。若要做超高清(4K以上)、多控制节点、多模态生成,建议显存 12-16 GB 或更高。
  • 虚拟环境管理非常重要:避免系统级 Python 污染、包冲突。
  • 常备备份:你的模型、插件、自定义节点建议备份,以便升级或迁移时能快速复原。
  • 检查网络与镜像源:若在国内或网络受限环境,建议配置 PyPI 镜像(如 清华、阿里云)或使用离线包。 (comfyui-wiki.com)

若将来升级显卡(如 RTX 50 系列),可能需要切换至 cu128 版本的 PyTorch。社区提醒:

“To get your nvidia 50 series GPU working with ComfyUI you need a pytorch that has been built against cuda 12.8” (GitHub)

转载吱一声~

Read more

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 1. 我先说结论:今天这波 AI 热榜,最重要的不是“谁最火”,而是“风向变了” * 2. GoogleCloudPlatform / generative-ai:平台生态正在成为真正的护城河 * 3. MiroFish:群体智能和多智能体,开始从概念走向更具体的产品叙事

By Ne0inhk
Python+AI 实战:搭建属于你的智能问答机器人

Python+AI 实战:搭建属于你的智能问答机器人

欢迎文末添加好友交流,共同进步! “ 俺はモンキー・D・ルフィ。海贼王になる男だ!” 引言 * 在数字化转型浪潮中,智能问答机器人正成为企业客服、知识库检索乃至个人助理等场景的关键交互入口。它能让员工秒级获取技术解答、客户即时获得业务支持、学习者随时得到个性化辅导,极大提升信息获取效率与用户体验。 * 为何选择 Python 与开源 AI 模型?Python 拥有成熟的 AI 生态——Hugging Face Transformers、LangChain、FAISS 等工具大幅降低开发门槛;而本地部署的开源大模型(如 Phi-3、Mistral、Llama 系列)则保障了数据隐私、规避了 API 成本,特别适合对安全性或离线能力有要求的场景。 * 本文将手把手带你从零构建一个基于 RAG(检索增强生成)架构的本地智能问答系统:使用 Sentence-BERT 实现语义检索,FAISS 作为向量数据库,并集成轻量级开源语言模型生成答案。

By Ne0inhk
人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战

人工智能:自然语言处理在医疗领域的应用与实战 学习目标 💡 理解自然语言处理(NLP)在医疗领域的应用场景和重要性 💡 掌握医疗领域NLP应用的核心技术(如电子病历分析、疾病诊断辅助、药物相互作用检测) 💡 学会使用前沿模型(如BioBERT、ClinicalBERT)进行医疗文本分析 💡 理解医疗领域的特殊挑战(如医疗术语、数据隐私、法规要求) 💡 通过实战项目,开发一个电子病历文本分类应用 重点内容 * 医疗领域NLP应用的主要场景 * 核心技术(电子病历分析、疾病诊断辅助、药物相互作用检测) * 前沿模型(BioBERT、ClinicalBERT)在医疗领域的使用 * 医疗领域的特殊挑战 * 实战项目:电子病历文本分类应用开发 一、医疗领域NLP应用的主要场景 1.1 电子病历分析 1.1.1 电子病历分析的基本概念 电子病历(Electronic Health Records, EHR)是医疗领域的核心数据之一,包含了患者的基本信息、诊断记录、

By Ne0inhk