本地AI自由!OpenClaw + Ollama 全离线部署实战手册 (Windows版)

厌倦了云端AI的Token计费焦虑和隐私泄露风险?想拥有一位完全听命于你的本地AI助手?本文将手把手教你,无需深厚编程基础,只需跟随步骤执行命令,即可在个人电脑上搭建属于你的全功能AI Agent。

核心优势零费用:无需API Key,彻底告别按量付费。强隐私:数据全程本地处理,断网也能流畅使用。高自由:随心切换Qwen、GLM等顶尖开源模型。

️ 第一阶段:环境准备(地基搭建)

在开始之前,请以管理员身份打开 PowerShell (按下 Win + X 选择)。这是我们接下来的操作中心。

1. 安装 Node.js (v18+)

Node.js 是 OpenClaw 的运行环境,安装它时 npm 会自动就位。

  1. 访问 Node.js 官网,下载 LTS (长期支持) 版本的 Windows 安装包 (.msi)。
  2. 双击运行安装程序。关键步骤:在自定义安装界面,务必勾选 Add to PATH
  3. 一路 Next 完成安装。

验证:在 PowerShell 中输入以下命令,若显示版本号(如 v18.x.x),则成功。

node-vnpm-v

2. 安装 Git

Git 用于管理代码和扩展技能,是生态的重要组成部分。

  1. 访问 Git 官网 下载 Windows 版安装包。
  2. 运行安装程序,建议保持所有默认选项,特别是确保将 Git 添加到系统 PATH 中。

验证:在 PowerShell 中输入命令,若显示版本信息则成功。

git--version

️ 第二阶段:部署 Ollama (本地模型引擎)

Ollama 是你的本地模型管家,负责承载AI的“大脑”。

1. 安装与配置

  1. 访问 Ollama 官网 下载 Windows 版本并安装。
  2. 环境变量配置 (推荐):为了让模型响应更快,避免重复加载,建议设置模型常驻内存。
    • 按下 Win 键,搜索“环境变量”,点击「编辑系统环境变量」 -> 「环境变量」。
    • 在“系统变量”中点击「新建」:
      • 变量名OLLAMA_KEEP_ALIVE
      • 变量值24h

2. 下载核心模型 (解决“找不到模型”问题的关键)

很多用户报错 file does not exist 是因为模型标签过旧或拼写错误。请使用以下绝对可用的命令:

  1. 验证:下载完成后,看到 >>> 符号即代表模型已在本地运行。

备选方案 (国内镜像)
如果官网下载速度慢或失败,可以尝试国内开发者维护的镜像:

ollama run dengcao/qwen:8b-q4_0 

首选通用命令 (推荐)
直接运行以下命令,Ollama 会自动匹配并下载一个性能均衡的量化版通义千问模型(约5-6GB)。

ollama run qwen:8b-instruct-q4_K_M 
解释q4_K_M 是目前兼容性最好的量化格式,在8GB显存的设备上也能流畅运行,完美替代了你之前遇到问题的 q4_0

第三阶段:部署 OpenClaw (AI Agent 核心)

OpenClaw 是AI的大脑,它将利用 Ollama 提供的模型能力,执行复杂的任务自动化。

1. 安装 OpenClaw

在 PowerShell 中执行以下命令进行全局安装:

npminstall-g openclaw 

若安装速度慢,可先切换国内源:npm config set registry https://registry.npmmirror.com

验证

openclaw --version 

2. 初始化与配置

  1. 初始化向导
openclaw onboard 
  1. 在交互式向导中,除模型配置外可一路回车。当询问是否配置模型时,选择 Skip for now (稍后手动配置)。
  2. 手动对接 Ollama
    依次执行以下三行命令,告诉 OpenClaw 如何连接本地的 Ollama。注意:第三行的模型名必须与 ollama list 中显示的完全一致。
openclaw config set models.providers.ollama.apiKey "ollama-local" openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/v1" openclaw config set models.default "ollama/qwen:8b-instruct-q4_K_M" 
  1. 重启生效
openclaw restart openclaw gateway start 

第四阶段:启动与验证 (见证奇迹)

1. 获取访问令牌

在 PowerShell 中执行,生成并复制你的登录令牌:

openclaw token generate 

2. 打开 Web 控制台

  1. 打开浏览器,访问:http://localhost:18789/
  2. 粘贴刚才复制的令牌,点击登录。

3. 开始对话

在输入框中输入:“你好,本地助手!”,如果收到流畅回复,恭喜你,部署成功!现在你可以断开网络测试,它依然能工作。


️ 附录:常见问题与避坑指南

问题现象解决方案
拒绝访问 / 权限不足请务必右键点击 PowerShell,选择 “以管理员身份运行” 后再执行命令。
node 不是内部命令Node.js 安装时未配置环境变量。请重装 Node.js,并勾选 Add to PATH
拉取模型速度极慢使用国内镜像命令 ollama run dengcao/qwen:8b-q4_0,或开启代理工具。
模型上下文太小请务必使用 q4_K_M 等量化版本,它们通常已包含足够的上下文窗口(约32K)。

** 进阶提示**:
部署完成后,你可以在控制台安装“文件处理”、“浏览器控制”等插件,让你的本地AI助手帮你自动整理下载文件夹、查询资料,真正解放生产力!

Read more

安装 启动 使用 Neo4j的超详细教程

安装 启动 使用 Neo4j的超详细教程

最近在做一个基于知识图谱的智能生成项目。需要用到Neo4j图数据库。写这篇文章记录一下Neo4j的安装及其使用。 一.Neo4j的安装 1.首先安装JDK,配环境变量。(参照网上教程,很多) Neo4j是基于Java的图形数据库,运行Neo4j需要启动JVM进程,因此必须安装JAVA SE的JDK。从Oracle官方网站下载 Java SE JDK。我使用的版本是JDK1.8 2.官网上安装neo4j。 官方网址:https://neo4j.com/deployment-center/  在官网上下载对应版本。Neo4j应用程序有如下主要的目录结构: bin目录:用于存储Neo4j的可执行程序; conf目录:用于控制Neo4j启动的配置文件; data目录:用于存储核心数据库文件; plugins目录:用于存储Neo4j的插件; 3.配置环境变量 创建主目录环境变量NEO4J_HOME,并把主目录设置为变量值。复制具体的neo4j文件地址作为变量值。 配置文档存储在conf目录下,Neo4j通过配置文件neo4j.conf控制服务器的工作。默认情况下,不需

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程

企业微信群机器人Webhook配置全攻略:从创建到发送消息的完整流程 在数字化办公日益普及的今天,企业微信作为国内领先的企业级通讯工具,其群机器人功能为团队协作带来了极大的便利。本文将手把手教你如何从零开始配置企业微信群机器人Webhook,实现自动化消息推送,提升团队沟通效率。 1. 准备工作与环境配置 在开始创建机器人之前,需要确保满足以下基本条件: * 企业微信账号:拥有有效的企业微信管理员或成员账号 * 群聊条件:至少包含3名成员的群聊(这是创建机器人的最低人数要求) * 网络环境:能够正常访问企业微信服务器 提示:如果是企业管理员,建议先在"企业微信管理后台"确认机器人功能是否已对企业开放。某些企业可能出于安全考虑会限制此功能。 2. 创建群机器人 2.1 添加机器人到群聊 1. 打开企业微信客户端,进入目标群聊 2. 点击右上角的群菜单按钮(通常显示为"..."或"⋮") 3. 选择"添加群机器人"选项 4.

Flowise物联网融合:与智能家居设备联动的应用设想

Flowise物联网融合:与智能家居设备联动的应用设想 1. Flowise:让AI工作流变得像搭积木一样简单 Flowise 是一个真正把“AI平民化”落地的工具。它不像传统开发那样需要写几十行 LangChain 代码、配置向量库、调试提示词模板,而是把所有这些能力打包成一个个可拖拽的节点——就像小时候玩乐高,你不需要懂塑料怎么合成,只要知道哪块该拼在哪,就能搭出一座城堡。 它诞生于2023年,短短一年就收获了45.6k GitHub Stars,MIT协议开源,意味着你可以放心把它用在公司内部系统里,甚至嵌入到客户交付的产品中,完全不用担心授权问题。最打动人的不是它的技术多炫酷,而是它真的“不挑人”:产品经理能搭出知识库问答机器人,运营同学能配出自动抓取竞品文案的Agent,连刚学Python两周的实习生,也能在5分钟内跑通一个本地大模型的RAG流程。 它的核心逻辑很朴素:把LangChain里那些抽象概念——比如LLM调用、文档切分、向量检索、工具调用——变成画布上看得见、摸得着的方块。你拖一个“Ollama LLM”节点,再拖一个“Chroma Vector

OpenClaw配置Bot接入飞书机器人+Kimi2.5

OpenClaw配置Bot接入飞书机器人+Kimi2.5

上一篇文章写了Ubuntu_24.04下安装OpenClaw的过程,这篇文档记录一下接入飞书机器+Kimi2.5。 准备工作 飞书 创建飞书机器人 访问飞书开放平台:https://open.feishu.cn/app,点击创建应用: 填写应用名称和描述后就直接创建: 复制App ID 和 App Secret 创建成功后,在“凭证与基础信息”中找到 App ID 和 App Secret,把这2个信息复制记录下来,后面需要配置到openclaw中 配置权限 点击【权限管理】→【开通权限】 或使用【批量导入/导出权限】,选择导入,输入以下内容,如下图 点击【下一步,确认新增权限】即可开通所需要的权限。 配置事件与回调 说明:这一步的配置需要先讲AppId和AppSecret配置到openclaw成功之后再设置订阅方式,