ComfyUI 本地部署及 Stable Diffusion 使用指南
ComfyUI 本地部署指南涵盖 Python、Git、CUDA 环境配置,PyTorch GPU 支持安装,源码克隆与依赖安装。提供 Stable Diffusion v1.5 模型下载与目录放置方法,启动命令及界面验证步骤。包含 ComfyUI Manager 扩展节点安装流程,文本生成图像操作指引,常见问题排查及跨设备访问配置。适用于 Windows 环境下构建可控的 AI 图像创作平台。

ComfyUI 本地部署指南涵盖 Python、Git、CUDA 环境配置,PyTorch GPU 支持安装,源码克隆与依赖安装。提供 Stable Diffusion v1.5 模型下载与目录放置方法,启动命令及界面验证步骤。包含 ComfyUI Manager 扩展节点安装流程,文本生成图像操作指引,常见问题排查及跨设备访问配置。适用于 Windows 环境下构建可控的 AI 图像创作平台。

安装 CUDA 与 cuDNN 本人已安装 CUDA 12.0 与 cuDNN 8.9。
安装 Git(用于从 GitHub 中克隆源码) 对于小白:Git 安装教程直接搜索一下吧,顺带看一下 Git 的使用教程。
安装 Python 在安装 Python 3.11.3(以及上版本)时,如果你懒得手动配置环境变量,一定要在安装程序最开始的一个界面上勾选 'Add python.exe to PATH' 这个选项。
检验 python 安装结果。
若有旧版本 PyTorch 先卸载可能已安装的版本:
pip uninstall torch torchvision torchaudio
然后安装支持 CUDA 11.8 的 PyTorch 版本(示例命令,你可根据 CUDA 12.0 查找更合适的版本,但很多教程推荐 cu118):
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
这一步确保 PyTorch 能调用你的 GPU。
**注意:**本人虽然用的是 CUDA 12.0,但是官方 whl 可能没有'cu120'分类,所以此时选择了用 cu118 这个常见且可用的方案。
通过 Github 网址你可以看到 ComfyUI 源码内容。我们需要将源码通过 Git 进行拉取。
于目标文件夹内右键打开 Open Git Bash here。
输入指令,等待拉取。
git clone https://github.com/comfyanonymous/ComfyUI
✅拉取完成
进入源码 ComfyUI 根目录后,执行:
pip install -r requirements.txt
等待时间可能较长。
下载 StableDiffusion v1.5 模型:
直接复制链接通过浏览器打开进行下载,此处使用的是 huggingface 镜像下载链接,提高下载速度。请确保你已成功下载 v1-5-pruned.safetensors 文件。
注:本人尝试了用 Git Bash 去拉取结果后来失败了,所以直接用了最朴素的办法直接下载文件然后手动给粘贴复制到模型目录中。
在 ComfyUI 源码目录下新建目录(如尚未有):
ComfyUI\ models\ checkpoints\
将你下载的 v1-5-pruned.safetensors 放入 models\checkpoints\ 文件夹。
注:'将下载的模型文件放在 …\models\checkpoints 文件夹' 建议你对于版本管理,可以再在 checkpoints 下建子文件夹,例如: 这样便于管理多个模型版本。
在 ComfyUI 源码根目录执行(命令行):
python main.py
如果一切正常,命令行会显示类似:
To see the GUI go to: http://127.0.0.1:8188
在浏览器中打开对应网址 http://127.0.0.1:8188/ 后,恭喜你已经完成安装并且成功打开。打开的页面情况如下。
(端口可能默认为 8188)
打开浏览器访问 http://localhost:8188,如果看到 ComfyUI 界面即启动成功。
此时,在界面中选中'Load Checkpoint'节点,应当可见你放入的 v1-5-pruned.safetensors 模型选项。若不可见,请检查文件是否放在正确目录。
❗如果你只是为了安装配置 ComfyUI 与 Stable Diffusion 模型,到这一步就可以了。
可以看一下下文的'三、(可选)安装 ComfyUI Manager(管理自定义节点)'如果扩展节点、插件、自定义工作流,安装 ComfyUI Manager 很有用。
对于'四、(使用)首次运行文本→图像(Text-to-Image)流程'涉及使用,本人还没有完全弄明白操作流程,建议去别处再看看。
虽然你只是想简单用 Stable Diffusion 生成图像,但如果未来想扩展节点、插件、自定义工作流,安装 ComfyUI Manager 很有用。通过 Github 网址你可以看到 ComfyUI-Manager 源码内容。我们需要将源码通过 Git 拉取到 custom_nodes 文件夹中。
python main.py)界面顶部应出现'Manager'按钮,用于安装/更新节点、模型。
✅拉取完成
输入指令,等待拉取。
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
于 custom_nodes 文件夹内右键打开 Open Git Bash here。(或者通过 github 直接下载压缩包解压后放入)
遇到问题解决方式: 如果未显示 Manager,可能是 Git 拉取下来的文件不完整,建议可以直接下载安装包然后解压收到复制到目标文件目录中。 如果在 python main.py 过程中一直在卡在 manager 编译上或者报错。有可能是 toml 缺少依赖。在 custom_nodes 文件夹中运行 cmd 添加依赖。
以下流程基于你已将 v1.5 模型加载成功。
定期从 GitHub 更新 ComfyUI 源码:
git pull pip install -r requirements.txt
或通过 ComfyUI Manager 进行'Update All'。
如果你希望 ComfyUI 界面从局域网其他设备访问,可在启动时加参数:
python main.py --listen 0.0.0.0
这样可使用机器的 IP 在同一网段浏览。
pip install -r requirements.txt。v1-5-pruned.safetensors)。ComfyUI\models\checkpoints\ 目录。python main.py。http://localhost:8188 界面打开。--listen 0.0.0.0。git pull 并重启。models 文件夹与 custom_nodes 目录。通过上述流程,你即可在 Windows + CUDA 12.0 + cuDNN 8.9 环境下,使用 Python 3.11.3 来运行 ComfyUI 并加载 Stable Diffusion v1.5 模型。这样你就拥有一个本地、可控、支持 GPU 的生成式 AI 图像创作平台。以后如想扩展为 Img2Img、多模型切换、ControlNet、LoRA 等,也可在此基础上继续扩展。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online