基于 ComfyUI 的 Stable Diffusion 本地部署与使用教程

基于 ComfyUI 的 Stable Diffusion 本地部署与使用教程
前言

        随着生成式人工智能技术的迅猛发展,基于 ComfyUI 的节点化工作流正成为图像创作的新趋势。ComfyUI 不仅采用了直观可视化的「搭砖块」方式来构建生成流程,而且能够灵活加载诸如 Stable Diffusion v1.5 这样强大的扩散模型,从而在本地 GPU 环境中高效、安全地生成高质量图像。本文旨在面向 Windows + CUDA 12.0 + cuDNN 8.9 环境,结合 Python 3.11.3,提供一份详细、清晰的 ComfyUI 配置与使用指南。无论你是初次尝试 AI 绘画还是希望搭建一个可扩展的本地创作平台,都可按本教程逐步操作,真正实现「在本地运行、可控生成、多模型切换」的创作体验。

一、环境准备

1. 安装 Python 、Git 、CUDA 与 cuDNN。

安装CUDA 与 cuDN
        本人已安装 CUDA 12.0 与 cuDNN 8.9(CUDA12.0以及对应版本cuDNN详细安装教程

安装 Git (用于从 GitHub 中克隆源码)
        对于小白:Git安装教程直接搜索一下吧,顺带看一下Git的使用教程。

安装 Python
        在安装 Python 3.11.3(以及上版本)时,如果你懒得手动配置环境变量,一定要在安装程序最开始的一个界面上勾选 “Add python.exe to PATH” 这个选项

        检验python安装结果。

2. 安装支持 CUDA 的 PyTorch

        若有旧版本PyTorch先卸载可能已安装的版本:

pip uninstall torch torchvision torchaudio 

        然后安装支持 CUDA 11.8 的 PyTorch 版本(示例命令,你可根据 CUDA 12.0 查找更合适的版本,但很多教程推荐 cu118):

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 

        这一步确保 PyTorch 能调用你的 GPU。

注意:本人虽然用的是 CUDA 12.0,但是官方 whl 可能没有 “cu120” 分类,所以此时选择了用 cu118 这个常见且可用的方案。

二、克隆 ComfyUI 源码 + 安装依赖

1.  克隆 ComfyUI 源码

        通过Github网址你可以看到 ComfyUI 源码 内容。我们需要将源码通过Git进行拉取

        于目标文件夹内右键打开 Open Git Bash here

        输入指令,等待拉取。

git clone https://github.com/comfyanonymous/ComfyUI

        ✅拉取完成

2. 安装依赖

        进入源码 ComfyUI 根目录后,执行:

pip install -r requirements.txt 

        等待时间可能较长。


二、配置 Stable Diffusion 模型 v1.5 + ❗❗ 启动 ComfyUI

1. 下载模型

下载 StableDiffusion v1.5 模型:

        直接复制链接通过浏览器打开进行下载,此处使用的是huggingface镜像下载链接,提高下载速度。请确保你已成功下载 v1-5-pruned.safetensors 文件。



注:本人尝试了用Git Bash去拉取结果后来失败了,所以直接用了最朴素的办法直接下载文件然后手动给粘贴复制到模型目录中。

2. 放置模型至 ComfyUI 目录

        在 ComfyUI 源码目录下新建目录(如尚未有):

ComfyUI\ models\ checkpoints\ 

        将你下载的 v1-5-pruned.safetensors 放入 models\checkpoints\ 文件夹。

注:“将下载的模型文件放在 …\models\checkpoints 文件夹” 
建议你对于版本管理,可以再在 checkpoints 下建子文件夹,例如:

这样便于管理多个模型版本。

3. ❗❗ 启动 ComfyUI 并验证模型可用

        在 ComfyUI 源码根目录执行(命令行):

python main.py 

        ✅如果一切正常,命令行会显示类似:

To see the GUI go to: http://127.0.0.1:8188 

        ✅在浏览器中打开对应网址 http://127.0.0.1:8188/ 后,恭喜你已经完成安装并且成功打开。打开的页面情况如下。

(端口可能默认为 8188)
打开浏览器访问 http://localhost:8188,如果看到 ComfyUI 界面即启动成功。
此时,在界面中选中 “Load Checkpoint” 节点,应当可见你放入的 v1-5-pruned.safetensors 模型选项。若不可见,请检查文件是否放在正确目录。 

❗❗如果你只是为了安装配置ComfyUI与Stable Diffsion模型,到这一步就可以了。

❗❗如果你只是为了安装配置ComfyUI与Stable Diffsion模型,到这一步就可以了。

❗❗如果你只是为了安装配置ComfyUI与Stable Diffsion模型,到这一步就可以了。



可以看一下 下文的 “三、(可选)安装 ComfyUI Manager(管理自定义节点)” 如果扩展节点、插件、自定义工作流,安装 ComfyUI Manager 很有用。

对于 “四、(使用)首次运行文本→图像(Text-to-Image)流程” 涉及使用,本人还没有完全弄明白操作流程,建议去别处再看看。

三、(可选)安装 ComfyUI Manager(管理自定义节点)

        虽然你只是想简单用 Stable Diffusion 生成图像,但如果未来想扩展节点、插件、自定义工作流,安装 ComfyUI Manager 很有用。通过Github网址你可以看到 ComfyUI-Manager 源码 内容。我们需要将源码通过Git拉取到custom_nodes文件夹中。

  1. 重启 ComfyUI 界面(关闭命令行窗口后重新执行 python main.py

界面顶部应出现 “Manager” 按钮,用于安装/更新节点、模型。 

✅拉取完成

输入指令,等待拉取。

git clone https://github.com/ltdrdata/ComfyUI-Manager.git 

custom_nodes文件夹内右键打开 Open Git Bash here。(或者通过github直接下载压缩包解压后放入)

遇到问题解决方式:

如果未显示 Manager,可能是 Git 拉取下来的文件不完整,建议可以直接下载安装包然后解压收到复制到目标文件目录中。

如果在 python main.py 过程中一直在卡在 manager 编译上或者报错。有可能是 toml 缺少依赖。在 custom_nodes 文件夹中运行cmd添加依赖。

四、(使用)首次运行文本→图像(Text-to-Image)流程

以下流程基于你已将 v1.5 模型加载成功。

1. 在 ComfyUI 界面中,加载默认工作流

  • 如果界面打开后看不到任何节点图,可以点击右侧 “Load Default” 按钮,加载默认 text2img 工作流。 

2. 确保 “Load Checkpoint” 节点已指向你的 SD1.5 模型

  • 点击该节点,模型名称下拉框应显示你之前放入的 v1-5-pruned 模型,选择它。

3. 配置生成参数

  • 在节点 “KSampler” 或类似节点中,设置步数(Steps)、分辨率(如 512×512)、随机种子(Seed)、正向提示(Positive Prompt)和负向提示(Negative Prompt)等。
    根据教程,步数越高、采样越充分,但运行时间越长。 
  • 确保分辨率适合你的 GPU VRAM(例如 512×512 或 768×768 若 VRAM 足够)。

4. 点击 “Queue Prompt” 或 “Run” 开始生成

  • 系统将运行采样,输出图像。
  • 输出完成后,可在 ComfyUI 界面中查看、保存图像。

5. 进阶:尝试 Img2Img、Upscale、ControlNet 等

  • 若想更复杂,可尝试基于图片输入 (Img2Img)、使用放大器 (Upscale)、加入 ControlNet 等节点。教程中亦有介绍。 

6. 常见问题排查

  • 若模型不出现在下拉框:确认模型文件是否在正确路径、是否为支持格式 (.ckpt 或 .safetensors)。
  • 若启动失败或报错:确认 PyTorch 是否正确安装、CUDA 驱动是否匹配、Python 环境是否为你预期版本。
  • 若 GPU 占用过高或出错:可尝试 “–force-fp16” 启动选项以降低精度。 

五、推荐的补充配置与优化

  • 建议为不同模型版本创建子目录(比如 SD1.5、SDXL 等)以便今后管理。 
  • 可通过 ComfyUI Manager 安装额外的自定义节点(如 LoRA、ControlNet、Live Portrait 等),扩展功能。
  • 若想让 Python 环境更可控,建议使用 virtualenv 或 conda 方式,而不是系统全局安装。
  • 对于 VRAM 较少的显卡,可考虑减少生成分辨率或步数,或启用 fp16 模式。

定期从 GitHub 更新 ComfyUI 源码:

git pull pip install -r requirements.txt 

或通过 ComfyUI Manager 进行“Update All”。 

如果你希望 ComfyUI 界面从局域网其他设备访问,可在启动时加参数:

python main.py --listen 0.0.0.0 

这样可使用机器的 IP 在同一网段浏览。 


六、完整操作流程(按顺序)

  1. 安装 Python 3.11.3、Git、CUDA 12.0 与 cuDNN 8.9。
  2. 安装 GPU 支持版 PyTorch。
  3. 克隆 ComfyUI 仓库。
  4. 安装依赖:pip install -r requirements.txt
  5. 下载 Stable Diffusion v1.5 模型文件(如 v1-5-pruned.safetensors)。
  6. 将模型文件放入 ComfyUI\models\checkpoints\ 目录。
  7. 启动 ComfyUI:python main.py
  8. 在浏览器访问 http://localhost:8188 界面打开。
  9. 加载默认工作流,选择模型,设置参数。
  10. 点击运行,生成图像。
  11. (可选)安装 ComfyUI Manager,扩展节点功能。
  12. 根据需要,通过 Manager 或手动更新、安装自定义节点。
  13. 若扩展到 Img2Img、Upscale、ControlNet,可加载相应流程并调整节点。
  14. 若想跨设备访问,启动时加 --listen 0.0.0.0
  15. 若模型或节点有更新,定期 git pull 并重启。

七、注意事项

  • 模型版权/许可:你下载的模型需确认其使用许可。
  • GPU VRAM 限制:高分辨率、高步数会占用大量 GPU 内存,建议先从 512×512、50 步数起。
  • 操作系统权限:Windows 防火墙可能阻止 ComfyUI 端口访问,首次运行时注意允许。
  • 安全备份:如果你未来安装大量自定义节点/模型,建议经常备份 models 文件夹与 custom_nodes 目录。
  • 故障排查时可参考ZEEKLOG。

八、总结

        通过上述流程,你即可在 Windows + CUDA 12.0 + cuDNN 8.9 环境下,使用 Python 3.11.3 来运行 ComfyUI 并加载 Stable Diffusion v1.5 模型。这样你就拥有一个本地、可控、支持 GPU 的生成式 AI 图像创作平台。以后如想扩展为 Img2Img、多模型切换、ControlNet、LoRA 等,也可在此基础上继续扩展。


转载吱一声~

Read more

从零开始:学生与教育工作者如何免费解锁GitHub Copilot的全套能力

学生与教育工作者如何零成本解锁GitHub Copilot的完整指南 1. 教育认证:开启免费Copilot之旅的关键步骤 对于在校学生和教师而言,GitHub提供了一条专属的绿色通道。通过教育认证,你可以完全免费获得Copilot的专业级代码辅助功能,无需经历60天试用期的繁琐流程。这个认证过程虽然需要一些耐心,但绝对值得投入时间。 教育认证的核心在于验证你的学术身份真实性。GitHub会要求你提供以下材料之一: * 学生身份验证:有效的学生证、在学证明或学信网认证报告 * 教师身份验证:教师资格证、工作证或学校官方邮箱 重要提示:使用学校邮箱(.edu或学校专属域名)能大幅提升认证通过率。如果材料非英文,建议附上简单翻译说明。 认证流程中的常见陷阱包括: 1. 上传的证件照片模糊不清 2. 证件有效期信息缺失 3. 使用非官方邮箱提交申请 4. 网络IP地址与学校地理位置不符 我曾帮助三位同学完成认证,发现下午3-5点(美国西部时间)提交的申请通常能在24小时内获得回复,这可能与GitHub审核团队的工作时段有关。 2. PyCharm环境下的Co

Claude Code的完美平替:OpenCode + GitHub Copilot

引言:Claude 虽好,但你真的能用上吗? 在当前席卷全球的“Vibe Coding”浪潮中,Anthropic 推出的 Claude 系列模型 + 终端工具 Claude Code,凭借极强的逻辑推理能力,成为了开发者眼中的“白月光”。但现实是残酷的:对于中国开发者而言,账号随时被封、海外信用卡支付遭拒、API 额度受限以及复杂的网络环境,构成了一道难以逾越的门槛。 虽然最近国产编程模型不断发力,Claude Code + GLM-4.7的表现非常出色,但面对复杂问题,Claude系列模型依然完胜。难道我们只能眼馋Claude全家桶的编程体验吗? 作为一名追求极致生产力的开发者,我发现了一个绝佳的完美替代方案:OpenCode + GitHub Copilot。这个组合不仅能让你享受如 GLM-4.7 一样的性价比,还能更方便的使用 Claude 的顶级模型。 Claude Code 的开源免费平替:OpenCode 想要复刻

Copilot实战:如何用AI助手高效完成1.5万行Python项目(附完整提示词模板)

Copilot实战:如何用AI助手高效完成1.5万行Python项目(附完整提示词模板) 最近在折腾一个不算太小的Python项目,代码量最终堆到了1.5万行左右。整个过程里,我几乎把Copilot当成了我的“第二大脑”。说实话,它确实没法独立完成一个项目,但如果你知道怎么跟它“对话”,怎么给它“喂”对的信息,它带来的效率提升是惊人的。这篇文章,我就想抛开那些泛泛而谈的“AI编程革命”,从一个真实项目参与者的角度,聊聊怎么让Copilot真正成为你手边最趁手的工具,而不是一个时灵时不灵的玩具。我会分享我踩过的坑、总结出的具体提示词模板,以及如何管理项目文件来最大化AI助手的效用。如果你也厌倦了在简单重复的代码上浪费时间,希望把精力集中在真正的架构和逻辑设计上,那么接下来的内容,或许能给你一些实在的启发。 1. 从“玩具”到“工具”:重新定位你的AI编程伙伴 很多开发者初次接触Copilot时,都抱着一种“让它写代码给我看”的心态。这往往导致最初的兴奋迅速被挫败感取代——生成的代码牛头不对马嘴,或者稍微复杂一点的需求就卡壳。问题的核心在于,我们错误地将其定位为一个“全自动代码生成

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义 Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。 Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。 JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。 2. JetBrains 中如何启用 Agent Mode (1)