2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

2025最新如何在本地部署 Stable Diffusion3.5超详细完整教程

在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷

前言

随着人工智能的快速发展,图像生成技术日益成熟,Stable Diffusion 3.5 作为一款强大的 AI 绘图工具,广泛应用于设计师、创作者等人群的视觉内容生成。它能够通过文本提示生成高质量图像,且具备较高的可控性和细腻的生成效果。

然而,默认情况下,Stable Diffusion 3.5 仅能在局域网内运行,远程操作或者出门时调整参数、查看进度会受到限制。在本文中,我们将通过本地部署的方式,帮助您克服这一限制,实现更加灵活的使用。

提示:不同型号的 Stable Diffusion 对硬件要求有所不同。以 Large Turbo 版本为例,推荐配备至少 8GB 显存以保证流畅运行。
文章目录在本地部署 Stable Diffusion 3.5:让 AI 绘图更便捷前言1. 本地部署 ComfyUI环境准备步骤 1:下载 ComfyUI步骤 2:选择合适的脚本步骤 3:启动 ComfyUI步骤 4:设置中文语言2. 下载 Stable Diffusion 3.5 模型模型选择步骤 1:下载模型文件步骤 2:下载 Clip 编码器文件步骤 3:运行 ComfyUI 服务3. 演示文生图步骤 1:加载示例工作流步骤 2:设置模型步骤 3:输入提示词并生成图像总结

1. 本地部署 ComfyUI

环境准备

  • 操作系统:Windows 11 专业版
  • 显卡要求:至少 8GB 显存

步骤 1:下载 ComfyUI

访问 ComfyUI 的官方 GitHub 页面,下载最新版的免安装版:

打开 GitHub 页面后,找到免安装版并下载解压至本地目录。

ComfyUI GitHub 下载页面

步骤 2:选择合适的脚本

在解压后的文件夹中,您会看到 run_cpurun_nvidia_gpu 两个脚本。run_cpu 是通过 CPU 解码,而 run_nvidia_gpu 则是通过 NVIDIA 显卡加速,后者运行速度更快。

选择适合您硬件的脚本,双击运行。

ComfyUI 运行脚本

步骤 3:启动 ComfyUI

运行脚本后,打开浏览器并访问 http://127.0.0.1:8188,即可进入 ComfyUI 的控制界面。

ComfyUI 页面

默认界面是英文,我们接下来设置为中文,以便更好地进行操作。

步骤 4:设置中文语言

  1. 下载中文语言包:中文插件下载链接
  2. 将解压后的文件放入 ComfyUI 根目录下的 custom_nodes 文件夹中。
中文语言包配置
  1. 回到 ComfyUI,进入设置并选择中文语言。
ComfyUI 设置中文

至此,ComfyUI 界面已经切换为中文,操作更加直观。

2. 下载 Stable Diffusion 3.5 模型

模型选择

Stable Diffusion 3.5 系列有多个版本,本教程使用的是 Stable Diffusion 3.5 Large Turbo 版本。

  • Stable Diffusion 3.5 Large:适合需要高质量图像的专业用户,建议使用 16GB 以上显存。
  • Stable Diffusion 3.5 Large Turbo:速度更快,生成过程更高效,推荐 8GB 显存。
  • Stable Diffusion 3.5 Medium:较为轻量,适合消费级硬件。

点击以下链接下载 Large Turbo 版本模型文件:

步骤 1:下载模型文件

在下载页面找到 sd3.5_large_turbo.safetensors 文件,并将其保存到 ComfyUI 的 models/checkpoint 文件夹中。

模型下载

步骤 2:下载 Clip 编码器文件

接下来,下载以下 Clip 编码器文件并将其保存至 ComfyUI 的 models/clip 文件夹中:

Clip 编码器下载

步骤 3:运行 ComfyUI 服务

回到 ComfyUI 根目录,运行一键脚本启动服务。

3. 演示文生图

步骤 1:加载示例工作流

将下载的 SD3.5L_Turbo_example_workflow.json 文件拖入 ComfyUI 界面中。

加载工作流

步骤 2:设置模型

在左侧的 Clip 设置中,选择刚刚下载的模型。

设置模型

步骤 3:输入提示词并生成图像

在中间的 CLIP 文本编码器中输入提示词,点击右侧的“添加提示词队列”按钮。

生成图像

生成图像后,您就可以看到在本地成功运行的 Stable Diffusion 3.5 模型生成的图像,操作更加便捷。

总结

恭喜您!通过本教程,您已经成功在本地部署了 Stable Diffusion 3.5 模型,并搭建了自己的 AI 绘画工作站。以下是整个部署过程的总结:

  • 第一步:搭建工作台
    • 下载并解压 ComfyUI 免安装版。
    • 启动服务,安装中文插件,完成环境配置。
  • 第二步:安装模型
    • 下载并安装 Stable Diffusion 3.5 Large Turbo 模型及所需的 Clip 编码器。
    • 将模型文件准确放入 ComfyUI 对应文件夹。
  • 第三步:启动并测试
    • 重启 ComfyUI 服务,加载示例工作流。
    • 输入提示词并生成第一张图像。

您已成功完成本地部署,并可以开始探索更多的功能和高级工作流。如果您希望将其转换为公网地址,便于远程访问,建议参考相关教程进行配置。

感谢您跟随本教程完成部署,祝您的创作之旅愉快!

Read more

具身智能与视觉:机器人如何“看懂”世界?

具身智能与视觉:机器人如何“看懂”世界?

具身智能与视觉:机器人如何“看懂”世界? * 前言 * 一、具身智能的奥秘探索 * 1.1 具身智能的深度剖析 * 1.2 具身智能的发展脉络梳理 * 二、视觉:机器人感知世界的 “慧眼” * 2.1 机器人视觉系统的架构解析 * 2.2 计算机视觉技术的关键支撑 * 三、机器人如何借助视觉 “看懂” 世界 * 3.1 视觉感知与环境理解 * 3.2 视觉引导下的决策与行动 * 3.3 视觉与其他传感器的融合 * 四、具身智能中视觉技术的挑战 * 4.1 复杂环境下的视觉鲁棒性 * 4.2 实时性与计算资源的平衡 * 4.3 语义理解与常识推理的欠缺 * 五、具身智能视觉技术的未来发展趋势 * 5.

By Ne0inhk

手把手教你用Coze搭建AI客服机器人:从零到上线的完整流程

从零构建企业级AI客服:基于Coze平台的可视化实战指南 你是否曾为客服团队处理重复性问题而焦头烂额?或是面对客户咨询高峰时,响应速度跟不上,导致用户体验下滑?在AI技术日益成熟的今天,构建一个智能客服机器人已不再是大型企业的专属。对于中小型团队或个人开发者而言,借助像字节跳动推出的Coze这样的平台,完全可以在短时间内,以极低的成本打造出一个功能强大、响应迅速的AI客服助手。这篇文章,我将以一个实际项目为例,带你一步步走完从环境准备、流程设计、知识库搭建到最终部署上线的全过程。我们不会停留在理论层面,而是深入到每一个配置细节和可能遇到的坑,让你真正掌握这门实用技能。 1. 项目规划与环境准备 在动手敲下第一行配置之前,清晰的规划是成功的一半。一个AI客服机器人不仅仅是回答问题的程序,它需要理解业务、融入流程、并具备持续学习的能力。我们首先要明确它的核心使命:是处理售前咨询,还是解决售后问题?是7x24小时在线接待,还是作为人工客服的辅助筛选工具?目标不同,设计的侧重点和复杂度也截然不同。 对于大多数中小企业,一个典型的客服机器人需要覆盖以下几个核心场景: * 高频问题自

By Ne0inhk
【Microi吾码】 发现Microi吾码:低代码世界的超级英雄 ‍

【Microi吾码】 发现Microi吾码:低代码世界的超级英雄 ‍

🚀 发现Microi吾码:低代码世界的超级英雄 🦸‍♂️ 目录 🚀 发现Microi吾码:低代码世界的超级英雄 🦸‍♂️ 🌟 无拘无束的创作空间 🌈 跨平台跨数据库的无缝体验 代码示例:跨数据库连接 🚀 分布式架构的轻松部署 代码示例:Docker部署 🎨 界面自定义与SaaS引擎的完美结合 代码示例:自定义界面 ⚙️ 表单和接口引擎的高效协同 代码示例:接口引擎使用V8脚本 🔒 工作流和权限控制的精细管理 代码示例:工作流引擎配置 🔐 单点登录与移动端开发的便捷性 代码示例:单点登录集成 🏁 结语 作为一名对技术充满热情的业务分析师,我一直在寻找一个能够快速实现创意、满足我们多样化业务需求的平台。🔍 在这个快速变化的数字世界中,我找到了Microi吾码——一个开源的低代码平台,它以其卓越的性能和灵活性,成为了我日常工作中的得力助手。👩‍💻💼 🌟 无拘无束的创作空间 在我使用Microi吾码之前,我常常受限于平台的各种使用限制,比如用户数、表单数等。Microi吾码的无限制使用政策让我彻底摆脱了这些束缚。💥

By Ne0inhk
从人类视频到机器人跳舞:BeyondMimic 全流程解析与 rl_sar 部署实践

从人类视频到机器人跳舞:BeyondMimic 全流程解析与 rl_sar 部署实践

0. 前言 让人形机器人学会跳舞,听起来像是科幻电影中的场景,但在强化学习和运动模仿技术的推动下,这件事正在变得越来越现实。本文将完整介绍一条从"人类 RGB 视频"到"真实机器人跳舞"的技术链路:首先通过视觉算法从视频中提取人体运动轨迹,然后将人体模型重定向到机器人关节空间,接着在仿真环境中进行强化学习训练,最后在 MuJoCo 中验证并部署到真实的 Unitree G1 人形机器人上。 整条流程涉及四个核心开源项目:GVHMR(视频到人体模型)、GMR(人体到机器人重定向)、BeyondMimic(强化学习训练框架)、以及 rl_sar(仿真验证与真机部署框架)。本文不仅会逐一拆解每个环节的原理和操作步骤,还会深入分析 BeyondMimic 的算法设计,并详细记录将训练产物迁移到 rl_sar 项目中进行 sim2sim 和 sim2real 部署时遇到的关键问题与解决方案。 下图展示了

By Ne0inhk