本地AI自由!OpenClaw + Ollama 全离线部署实战手册 (Windows版)

厌倦了云端AI的Token计费焦虑和隐私泄露风险?想拥有一位完全听命于你的本地AI助手?本文将手把手教你,无需深厚编程基础,只需跟随步骤执行命令,即可在个人电脑上搭建属于你的全功能AI Agent。

核心优势零费用:无需API Key,彻底告别按量付费。强隐私:数据全程本地处理,断网也能流畅使用。高自由:随心切换Qwen、GLM等顶尖开源模型。

️ 第一阶段:环境准备(地基搭建)

在开始之前,请以管理员身份打开 PowerShell (按下 Win + X 选择)。这是我们接下来的操作中心。

1. 安装 Node.js (v18+)

Node.js 是 OpenClaw 的运行环境,安装它时 npm 会自动就位。

  1. 访问 Node.js 官网,下载 LTS (长期支持) 版本的 Windows 安装包 (.msi)。
  2. 双击运行安装程序。关键步骤:在自定义安装界面,务必勾选 Add to PATH
  3. 一路 Next 完成安装。

验证:在 PowerShell 中输入以下命令,若显示版本号(如 v18.x.x),则成功。

node-vnpm-v

2. 安装 Git

Git 用于管理代码和扩展技能,是生态的重要组成部分。

  1. 访问 Git 官网 下载 Windows 版安装包。
  2. 运行安装程序,建议保持所有默认选项,特别是确保将 Git 添加到系统 PATH 中。

验证:在 PowerShell 中输入命令,若显示版本信息则成功。

git--version

️ 第二阶段:部署 Ollama (本地模型引擎)

Ollama 是你的本地模型管家,负责承载AI的“大脑”。

1. 安装与配置

  1. 访问 Ollama 官网 下载 Windows 版本并安装。
  2. 环境变量配置 (推荐):为了让模型响应更快,避免重复加载,建议设置模型常驻内存。
    • 按下 Win 键,搜索“环境变量”,点击「编辑系统环境变量」 -> 「环境变量」。
    • 在“系统变量”中点击「新建」:
      • 变量名OLLAMA_KEEP_ALIVE
      • 变量值24h

2. 下载核心模型 (解决“找不到模型”问题的关键)

很多用户报错 file does not exist 是因为模型标签过旧或拼写错误。请使用以下绝对可用的命令:

  1. 验证:下载完成后,看到 >>> 符号即代表模型已在本地运行。

备选方案 (国内镜像)
如果官网下载速度慢或失败,可以尝试国内开发者维护的镜像:

ollama run dengcao/qwen:8b-q4_0 

首选通用命令 (推荐)
直接运行以下命令,Ollama 会自动匹配并下载一个性能均衡的量化版通义千问模型(约5-6GB)。

ollama run qwen:8b-instruct-q4_K_M 
解释q4_K_M 是目前兼容性最好的量化格式,在8GB显存的设备上也能流畅运行,完美替代了你之前遇到问题的 q4_0

第三阶段:部署 OpenClaw (AI Agent 核心)

OpenClaw 是AI的大脑,它将利用 Ollama 提供的模型能力,执行复杂的任务自动化。

1. 安装 OpenClaw

在 PowerShell 中执行以下命令进行全局安装:

npminstall-g openclaw 

若安装速度慢,可先切换国内源:npm config set registry https://registry.npmmirror.com

验证

openclaw --version 

2. 初始化与配置

  1. 初始化向导
openclaw onboard 
  1. 在交互式向导中,除模型配置外可一路回车。当询问是否配置模型时,选择 Skip for now (稍后手动配置)。
  2. 手动对接 Ollama
    依次执行以下三行命令,告诉 OpenClaw 如何连接本地的 Ollama。注意:第三行的模型名必须与 ollama list 中显示的完全一致。
openclaw config set models.providers.ollama.apiKey "ollama-local" openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/v1" openclaw config set models.default "ollama/qwen:8b-instruct-q4_K_M" 
  1. 重启生效
openclaw restart openclaw gateway start 

第四阶段:启动与验证 (见证奇迹)

1. 获取访问令牌

在 PowerShell 中执行,生成并复制你的登录令牌:

openclaw token generate 

2. 打开 Web 控制台

  1. 打开浏览器,访问:http://localhost:18789/
  2. 粘贴刚才复制的令牌,点击登录。

3. 开始对话

在输入框中输入:“你好,本地助手!”,如果收到流畅回复,恭喜你,部署成功!现在你可以断开网络测试,它依然能工作。


️ 附录:常见问题与避坑指南

问题现象解决方案
拒绝访问 / 权限不足请务必右键点击 PowerShell,选择 “以管理员身份运行” 后再执行命令。
node 不是内部命令Node.js 安装时未配置环境变量。请重装 Node.js,并勾选 Add to PATH
拉取模型速度极慢使用国内镜像命令 ollama run dengcao/qwen:8b-q4_0,或开启代理工具。
模型上下文太小请务必使用 q4_K_M 等量化版本,它们通常已包含足够的上下文窗口(约32K)。

** 进阶提示**:
部署完成后,你可以在控制台安装“文件处理”、“浏览器控制”等插件,让你的本地AI助手帮你自动整理下载文件夹、查询资料,真正解放生产力!

Read more

Flutter 三方库 jwt_io 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、严谨、全能的 JSON Web Token (JWT) 加解密与身份安全验证引擎

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 jwt_io 的鸿蒙化适配指南 - 在鸿蒙系统上构建极致、严谨、全能的 JSON Web Token (JWT) 加解密与身份安全验证引擎 在鸿蒙(OpenHarmony)系统的端云一体化登录、政企应用的安全审计或复杂的跨端权限校验场景中,如何确保来自云端授信中心的 JWT Token 既能被正确解析(Decode),又能被严密地校验其合法性与过期时间?jwt_io 为开发者提供了一套工业级的、基于 RFC 7519 标准的 JSON Web Token 深度处理方案。本文将深入实战其在鸿蒙应用安全底座中的应用。 前言 什么是 JWT IO?它不仅是一个简单的 Base64 解码器,而是一个具备深厚 RFC

跨平台文件传输:WebDAV + Rclone

在集成流水线时,我曾遇到需要跨平台传输文件的场景(服务器需要与其他平台进行文件交互)。虽然 OpenSSH(scp/sftp)是最简便的方案,但公司出于安全策略,禁止机器间通过 OpenSSH 进行文件传输。因此我尝试了 NFS/SMB、临时 HTTP 共享等多种方式,但均因安全策略限制或配置复杂未能落地。         最终我采用了 WebDAV + rclone 的组合方案实现跨平台文件传输: * 使用 WebDAV 共享目标机器的目录; * 通过 rclone 对共享目录进行稳定的读写操作。         该方案适用于内部工具场景,非部署生产环境。实际使用中,我以测试机/工作机(macOS/Windows)作为 WebDAV 服务端,在另一台 macOS 服务器上通过 rclone 对测试机进行文件的上传、下载与管理,实现了稳定、轻量、符合公司安全规范的跨平台文件互通。 实现步骤 Apache

从2025看2026前端发展趋势

🎨 从2025看2026前端发展趋势 一、📌 核心前言(2025铺垫→2026展望) 2025年前端行业已完成“基础成熟化”:Vue3、React18成为主流,TypeScript全面普及,工程化流程趋于完善,AI工具开始渗透开发环节,但也暴露了痛点——开发效率不均衡、跨端体验不一致、AI与业务结合浅显、性能优化门槛高。 ✨ 核心趋势:2026年前端将从「基础成熟」走向「深度融合」,重点围绕「AI原生开发」「跨端统一」「性能极致」「工程化提效」四大方向突破,同时Node.js等底层工具的升级(如2026年Node.js新特性)将进一步推动前端向全栈化、平台化转型。 二、✍️ 五大核心趋势(手绘重点·结合2025现状) 1. AI原生开发:从“辅助工具”到“核心生产力” 🤖(最重磅) (1)2025现状 2025年,前端AI工具多为“辅助层面”

手把手教你免费获取豆包 AI API Key 并接入前端项目

文章目录 * 手把手教你免费获取豆包 AI API Key 并接入前端项目(超详细图文版) * 一、先说清楚:豆包 AI API 在哪里申请? * 二、准备工作(2 分钟完成) * 三、正式获取 API Key(5 分钟搞定) * 步骤 1:进入火山方舟平台 * 步骤 2:创建 API Key(最重要) * 步骤 3:开通豆包 AI 模型 * 步骤 4:创建「推理接入点」获取 Endpoint ID * 四、拿到这两个东西就成功了 * 五、前端接入代码示例(Vue3 可直接用)