2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷

前言

随着人工智能的快速发展,图像生成技术日益成熟,Stable Diffusion 3.5 作为一款强大的 AI 绘图工具,广泛应用于设计师、创作者等人群的视觉内容生成。它能够通过文本提示生成高质量图像,且具备较高的可控性和细腻的生成效果。

然而,默认情况下,Stable Diffusion 3.5 仅能在局域网内运行,远程操作或者出门时调整参数、查看进度会受到限制。在本文中,我们将通过本地部署的方式,帮助您克服这一限制,实现更加灵活的使用。

提示:不同型号的 Stable Diffusion 对硬件要求有所不同。以 Large Turbo 版本为例,推荐配备至少 8GB 显存以保证流畅运行。
文章目录在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷前言1. 本地部署 ComfyUI环境准备步骤 1:下载 ComfyUI步骤 2:选择合适的脚本步骤 3:启动 ComfyUI步骤 4:设置中文语言2. 下载 Stable Diffusion 3.5 模型模型选择步骤 1:下载模型文件步骤 2:下载 Clip 编码器文件步骤 3:运行 ComfyUI 服务3. 演示文生图步骤 1:加载示例工作流步骤 2:设置模型步骤 3:输入提示词并生成图像总结

1. 本地部署 ComfyUI

环境准备

  • 操作系统:Windows 11 专业版
  • 显卡要求:至少 8GB 显存

步骤 1:下载 ComfyUI

访问 ComfyUI 的官方 GitHub 页面,下载最新版的免安装版:

打开 GitHub 页面后,找到免安装版并下载解压至本地目录。

ComfyUI GitHub 下载页面

步骤 2:选择合适的脚本

在解压后的文件夹中,您会看到 run_cpurun_nvidia_gpu 两个脚本。run_cpu 是通过 CPU 解码,而 run_nvidia_gpu 则是通过 NVIDIA 显卡加速,后者运行速度更快。

选择适合您硬件的脚本,双击运行。

ComfyUI 运行脚本

步骤 3:启动 ComfyUI

运行脚本后,打开浏览器并访问 http://127.0.0.1:8188,即可进入 ComfyUI 的控制界面。

ComfyUI 页面

默认界面是英文,我们接下来设置为中文,以便更好地进行操作。

步骤 4:设置中文语言

  1. 下载中文语言包:中文插件下载链接
  2. 将解压后的文件放入 ComfyUI 根目录下的 custom_nodes 文件夹中。
中文语言包配置
  1. 回到 ComfyUI,进入设置并选择中文语言。
ComfyUI 设置中文

至此,ComfyUI 界面已经切换为中文,操作更加直观。

2. 下载 Stable Diffusion 3.5 模型

模型选择

Stable Diffusion 3.5 系列有多个版本,本教程使用的是 Stable Diffusion 3.5 Large Turbo 版本。

  • Stable Diffusion 3.5 Large:适合需要高质量图像的专业用户,建议使用 16GB 以上显存。
  • Stable Diffusion 3.5 Large Turbo:速度更快,生成过程更高效,推荐 8GB 显存。
  • Stable Diffusion 3.5 Medium:较为轻量,适合消费级硬件。

点击以下链接下载 Large Turbo 版本模型文件:

步骤 1:下载模型文件

在下载页面找到 sd3.5_large_turbo.safetensors 文件,并将其保存到 ComfyUI 的 models/checkpoint 文件夹中。

模型下载

步骤 2:下载 Clip 编码器文件

接下来,下载以下 Clip 编码器文件并将其保存至 ComfyUI 的 models/clip 文件夹中:

Clip 编码器下载

步骤 3:运行 ComfyUI 服务

回到 ComfyUI 根目录,运行一键脚本启动服务。

3. 演示文生图

步骤 1:加载示例工作流

将下载的 SD3.5L_Turbo_example_workflow.json 文件拖入 ComfyUI 界面中。

加载工作流

步骤 2:设置模型

在左侧的 Clip 设置中,选择刚刚下载的模型。

设置模型

步骤 3:输入提示词并生成图像

在中间的 CLIP 文本编码器中输入提示词,点击右侧的“添加提示词队列”按钮。

生成图像

生成图像后,您就可以看到在本地成功运行的 Stable Diffusion 3.5 模型生成的图像,操作更加便捷。

总结

恭喜您!通过本教程,您已经成功在本地部署了 Stable Diffusion 3.5 模型,并搭建了自己的 AI 绘画工作站。以下是整个部署过程的总结:

  • 第一步:搭建工作台
    • 下载并解压 ComfyUI 免安装版。
    • 启动服务,安装中文插件,完成环境配置。
  • 第二步:安装模型
    • 下载并安装 Stable Diffusion 3.5 Large Turbo 模型及所需的 Clip 编码器。
    • 将模型文件准确放入 ComfyUI 对应文件夹。
  • 第三步:启动并测试
    • 重启 ComfyUI 服务,加载示例工作流。
    • 输入提示词并生成第一张图像。

您已成功完成本地部署,并可以开始探索更多的功能和高级工作流。如果您希望将其转换为公网地址,便于远程访问,建议参考相关教程进行配置。

感谢您跟随本教程完成部署,祝您的创作之旅愉快!

Read more

从零搭建可落地 Agent:一文吃透 AI 智能体开发全流程

从零搭建可落地 Agent:一文吃透 AI 智能体开发全流程

🎁个人主页:我滴老baby 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: * 【前言】 * 一、先搞懂:2026年爆火的AI Agent,到底是什么? * 1.1 Agent的核心定义 * 1.2 Agent的4大核心能力 * 1.3 2026年Agent的3个热门落地场景 * 二、框架选型:2026年6大主流Agent框架,新手该怎么选? * 三、实战环节:从0到1搭建可落地的“邮件处理Agent”(全程代码+步骤) * 3.1 实战准备:环境搭建(10分钟搞定) * 3.1.1 安装Python环境 * 3.1.2 创建虚拟环境(避免依赖冲突) * 3.1.

Kubernetes与边缘AI最佳实践

Kubernetes与边缘AI最佳实践 1. 边缘AI核心概念 1.1 什么是边缘AI 边缘AI是指在边缘设备上运行AI模型,而不是在云端数据中心。边缘AI可以减少延迟、节省带宽、保护隐私,并在网络连接不稳定时保持服务可用性。 1.2 边缘AI的优势 * 低延迟:数据不需要传输到云端,响应时间更短 * 带宽节省:减少数据传输,降低网络成本 * 隐私保护:敏感数据在本地处理,不离开设备 * 离线运行:在网络连接中断时仍能正常工作 * 分布式计算:充分利用边缘设备的计算资源 2. 边缘Kubernetes集群搭建 2.1 边缘节点配置 边缘节点要求 * 硬件:至少2GB RAM,2核CPU,10GB存储空间 * 网络:稳定的网络连接 * 操作系统:支持Docker的Linux发行版 安装Docker和kubeadm # 安装Docker apt-get update apt-get install -y

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel

OpenClaw 实战:5 分钟用 AI Agent 自动生成规范测试用例并写入 Excel 一、核心前提 OpenClaw 是轻量级 Agent 框架,核心聚焦: Skill 注册 → 工具选择 → 任务执行 * 没有 Dify 的可视化界面 * 没有知识库、没有复杂工作流 * 代码极简洁、上手极快 * 适合:测试开发 / 有编程能力的测试工程师 一句话定位: OpenClaw = 极简、轻量、只专注做工具调用的小 Agent 引擎 二、环境准备 1. 安装 OpenClaw 及依赖 # 安装 OpenClaw 核心框架 pip install openclaw # Excel 操作

2026年03月17日全球AI前沿动态

一句话总结:2026年3月16日的AI行业资讯覆盖315曝光GEO技术操纵AI的行业乱象、多款大模型与智能体技术的重磅迭代、AI在多行业的深度落地、头部企业的布局与资本动作,同时AI安全治理、职业替代风险、伦理争议等问题引发广泛关注,政策层面将AI定为支柱产业并重点培育具身智能等前沿领域,技术发展与行业治理的协同成为行业核心议题。 一、模型与技术突破 1.1 通用大模型(大语言模型与多模态模型) 1. Anthropic:发布Claude Opus 4.6和Sonnet 4.6,100万上下文全面开放,取消长文本溢价,Opus每百万Token计费5美元和25美元;多模态处理能力提升6倍,单次请求支持图像/PDF页面上限从100增至600,API长请求无需Beta请求头自动处理;MRCR v2评测中Opus 4.6以78.3%位列同级模型第一,Claude Code用户默认开启百万上下文,大幅减少强制压缩次数;推出限时福利,3月13日-27日工作日非高峰时段用户用量翻倍,覆盖多平台,推动百万Token时代到来,突破AI编程与长文本处理上限。 2. 智谱:发布GLM-5-Tur