如何部署本地 stable diffusion 本地使用大模型Z Image Turbo

🛠️ 部署 Stable Diffusion 详细步骤(以 Automatic1111 WebUI 为例)

  1. 准备工作(系统和硬件要求)
  • 操作系统: Windows 10/11, macOS (Apple Silicon 芯片), 或 Linux。NVIDIA: 推荐使用 NVIDIA 显卡(RTX 系列为佳),显存 (VRAM) 最好在 8GB 或以上。这是 Windows 上运行 SD 性能最好的选择。
    • 显卡 (GPU):
    • AMD: 也可以,但设置可能更复杂,且性能通常不如 NVIDIA。
    • Apple Silicon (M系列芯片): 在 macOS 上性能优秀,且不要求高 VRAM。
  • 软件要求:
    • Python: 需要安装 Python 3.10.6 版本。请确保在安装时勾选 “Add Python to PATH” 选项。
    • Git: 用于下载 WebUI 的代码。
  1. 安装 WebUI
  • 步骤一:安装 Git 和 Python 3.10.6
    • 安装 Python 3.10.6:访问 Python 官方网站下载安装包。非常重要: 在安装界面的第一个屏幕,请务必勾选底部的 “Add Python to PATH”(将 Python 添加到环境变量)。
    • 安装 Git:访问 Git 官方网站下载并安装。使用默认设置即可。
  • 步骤二:克隆 WebUI 仓库
    • 在您希望安装 Stable Diffusion 的位置(例如:D:\StableDiffusion)创建一个新文件夹。
    • 打开该文件夹,在地址栏输入 cmd 或 powershell 并回车,打开命令行窗口。
    • 等待下载完成。现在您的文件夹中会有一个名为 stable-diffusion-webui 的子文件夹。

在命令行中输入以下命令来克隆 WebUI 代码:

 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git 
    1. 运行 WebUI
    • 进入 stable-diffusion-webui文件夹。
    • 双击运行 webui-user.bat文件。首次运行须知:
      第一次运行,程序会自动下载所有必要的依赖文件(如 PyTorch 等),这可能需要较长时间(取决于您的网速,可能耗费几分钟到半小时不等)。下载完成后,程序会在命令行窗口的最后显示一个本地 URL 地址,通常是:Running on local URL: http://127.0.0.1:7860
      复制这个 URL 地址,粘贴到您的浏览器中打开,即可开始使用 Stable Diffusion WebUI 进行创作!

下载模型(Checkpoint 文件)
部署 SD 最核心的部分是模型文件,通常是 .safetensors.ckpt格式。获取模型:访问著名的模型分享网站,如 Civitai (C站) 或 Hugging Face,下载您喜欢的 Stable Diffusion 模型(例如 SD 1.5 或 SDXL 模型)。放置模型:将下载好的模型文件放置到以下路径:/stable-diffusion-webui/models/Stable-diffusion/
(可选)如果您还需要 VAE 文件,则放置到 /stable-diffusion-webui/models/VAE/。找到 webui-user.bat 文件(Windows 用户)或 webui.sh 文件(Linux/macOS 用户)。

💡 性能优化与故障排除

显存不足 (VRAM < 8GB): 如果您的显存较小,可能会遇到错误。您可以编辑 webui-user.bat文件,在 COMMANDLINE_ARGS=后面添加启动参数,例如:

 set COMMANDLINE_ARGS=--xformers --medvram 

--xformers: 显著提高生成速度和效率。--medvram: 中等显存优化,可以帮助在 6GB 或 4GB 显存上运行。--lowvram: 低显存优化,但生成速度会慢很多。下载失败: 如果自动下载依赖失败,通常是网络问题。您可以尝试配置代理或科学上网工具后重试。

Read more

AI 编程助手价格与体验对比:Claude Code vs 国产替代(通义灵码 / 文心快码 / MarsCode / 腾讯系)

目录 * 1. 为什么要做这篇对比:开发效率正在被“定价”重塑 * 2. Claude Code 要不要付费?费用结构如何理解 * 3. 国产替代有哪些:定位差异与适用人群 * 4. 对比表格:价格、能力、生态、适配场景一张看懂 * 5. 实战:同一组任务对比补全 / 重构 / 测试 / 审查 * 6. 选型建议:按场景快速决策 * 7. 总结:把“工作流收益”放进预算里 1. 为什么要做这篇对比:开发效率正在被“定价”重塑 AI 编程助手已经从“写几行代码的尝鲜工具”,变成了能够影响交付节奏、代码质量与团队协作方式的生产力组件。Claude Code 代表了国际一线模型能力与工程体验;国产阵营(通义灵码、文心快码、

在Edge上使用Google ai studio,Chatgpt等网页版卡顿解决方案

在Edge上使用Google ai studio,Chatgpt等网页版卡顿解决方案

这是典型的浏览器资源调度策略(Resource Scheduling Policy)与重型单页应用(SPA, Single Page Application)发生冲突的表现。 Google AI Studio 和 ChatGPT 这类 Web 应用,底层大量依赖 WebSocket 进行流式传输,并在前端利用 WASM (WebAssembly) 或繁重的 JavaScript 进行 Markdown 渲染和代码高亮。你的 i5-11320H 虽然单核性能尚可,但作为 4核8线程的移动端 CPU,一旦被浏览器判定为“高能耗进程”并进行降频或挂起,就会出现明显的 Input Latency(输入延迟)和渲染卡顿。 针对 Edge 浏览器在 2024/2025 版本中的特性,以下是基于底层原理的解决方案,

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI网文/小说创作平台:AI-Writer、InkOS、MuMuAINovel

AI和LLM已经侵入目之所及的各个角落。本文汇总几款基于AI/LLM的小说创作工具。 AI-Writer BlinkDL开源(GitHub,3.6K Star,564 Fork)的AI写中文小说工具。使用基于RNN/语言模型(RWKV‑LM)的预训练模型,专注于生成中文网文(如玄幻、言情、网络小说)。 将“根据开头+设定→自动续写/生成后续内容”的流程自动化,能够快速生成连贯(或半连贯)的小说段落/章节。 实战 git clone https://github.com/BlinkDL/AI-Writer.git cd AI-Writer python run.py python server.py 流程: * 打开后,

OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱

OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱

OpenClaw Skills 安装与实战:打造你的 AI 技能工具箱 本文介绍如何使用 ClawHub 安装和管理 OpenClaw 技能包,并通过实战案例演示多个技能的协同使用。 前言 OpenClaw 是一个强大的 AI 助手框架,而 Skills(技能包)则是扩展其能力的核心方式。通过安装不同的技能包,你可以让 AI 助手具备搜索、总结、开发指导、自我学习等能力。 本文将带你完成: * ClawHub CLI 的安装与使用 * 多个实用技能包的安装 * Self-Improving 记忆系统的初始化 * 一个综合实战案例演示 一、ClawHub:技能包管理器 1.1 什么是 ClawHub ClawHub 是 OpenClaw 的官方技能包市场,提供了丰富的技能包供用户安装使用。 安装 ClawHub