本地 AI 自由!OpenClaw+Ollama 双系统部署教程(Windows/Linux),零成本离线跑大模型

想拥有完全本地、无 Token 消耗、隐私安全的 AI 助手?本文手把手教你在Windows+Linux双系统部署 OpenClaw,并通过 Ollama 对接本地大模型,全程离线可用、操作极简,新手也能快速上手!


一、环境准备

  • 系统:Windows 10+/Ubuntu 20.04+(其他 Linux 发行版适配)
  • 内存:≥8GB(推荐 16GB,流畅运行本地模型)
  • 依赖:Node.js ≥22.x、Git
  • 工具:Ollama(本地大模型一键部署)

二、Windows 部署 OpenClaw

1. 管理员启动 PowerShell

Win+X → 选择「Windows 终端 (管理员)」

2. 配置执行策略(必做)

Set-ExecutionPolicy -Scope CurrentUser -ExecutionPolicy RemoteSigned 

输入Y确认

3. 一键安装 OpenClaw

iwr -useb https://openclaw.ai/install.ps1 | iex 

4. 验证安装

openclaw --version 

显示版本号即安装成功

5. 初始化配置

openclaw onboard 

按提示选择:YesQuickStart → 暂时跳过模型配置(后续对接 Ollama)


三、Linux 部署 OpenClaw

1. 更新系统依赖

sudo apt update && sudo apt upgrade -y sudo apt install -y curl git 

2. 一键安装 OpenClaw

curl -fsSL https://openclaw.ai/install.sh | bash 

3. 加载环境变量

source ~/.bashrc 

4. 验证安装

openclaw --version 

5. 初始化配置

openclaw onboard 

配置流程同 Windows


四、Ollama 本地大模型部署(双系统通用)

1. Windows 安装 Ollama

访问官网下载安装包:https://ollama.com/download双击安装,自动后台启动

2. Linux 安装 Ollama

curl -fsSL https://ollama.com/install.sh | sh 

3. 启动 Ollama 服务

ollama serve 

4. 拉取本地模型(以通义千问 2.5 为例)

ollama pull qwen2.5:7b 

5. 验证模型运行

ollama run qwen2.5:7b 

进入对话界面即成功


五、OpenClaw 连接 Ollama 本地模型

1. 配置 Ollama API Key(无需真实密钥)

openclaw config set models.providers.ollama.apiKey "ollama-local" 

2. 配置 Ollama 服务地址

openclaw config set models.providers.ollama.baseUrl "http://localhost:11434/v1" 

3. 设置默认模型

openclaw config set models.default "ollama/qwen2.5:7b" 

4. 重启 OpenClaw 生效

# Windows/Linux通用 openclaw restart 

5. 验证连接

openclaw config test models.provider.ollama 

返回「集成成功」即完成对接


六、常见问题与避坑

  1. OpenClaw 安装失败检查 Node.js 版本≥22.x,重新安装依赖后重试
  2. Ollama 无法访问确认端口 11434 未占用,关闭防火墙 / 代理重试
  3. 模型加载缓慢降低模型参数(如使用 qwen2.5:1.8b),增加内存分配
  4. 对接失败务必在 baseUrl 末尾添加/v1,这是核心兼容点

七、总结

本文完成了Windows+Linux 双系统 OpenClaw 部署,并通过 Ollama 实现本地大模型无缝对接,真正做到离线可用、零成本、隐私安全。后续可根据需求更换模型,打造专属本地 AI 助手!

Read more

Qwen3‑Max/Qwen3‑Next/Qwen3‑Omni/Qwen3 coder 分别有哪些异同,包括架构和训练方式

Qwen3‑Max/Qwen3‑Next/Qwen3‑Omni/Qwen3 coder 分别有哪些异同,包括架构和训练方式 下面按 Qwen3 家族的主要成员 分别总结:Qwen3‑Max、Qwen3‑Next、Qwen3‑Omni、Qwen3‑Coder 的架构定位、训练方式及设计差异。这些信息基于公开资料(可公开访问的技术博客、官方声明和综述)整理而成。 🧠 一、Qwen3‑Max 定位(旗舰通用大模型) Qwen3‑Max 是 Qwen3 系列中最顶级、参数规模最大(超过 1 T 级别)的基线通用模型,覆盖文本、推理、编程、智能体等多个通用能力。 架构特点 * 基于

By Ne0inhk

openclaw多节点访问 Gateway 的方法

openclaw多节点访问 Gateway 的方法 1. Gateway 端配置 网络绑定:若节点通过局域网访问,Gateway 需绑定到 LAN 接口(gateway.bind: “lan” 或指定 IP),不能仅绑定到 loopback(127.0.0.1)。若通过 SSH 隧道或 Tailscale 等 VPN 访问,Gateway 可保持 loopback 绑定,因为流量会转发到本地。 认证:推荐使用 Token 认证。在 gateway.auth 中设置 mode: “token” 并配置 token。确保 Token 与节点端一致。

By Ne0inhk
Flutter 组件 heart 适配鸿蒙 HarmonyOS 实战:分布式心跳监控,构建全场景保活检测与链路哨兵架构

Flutter 组件 heart 适配鸿蒙 HarmonyOS 实战:分布式心跳监控,构建全场景保活检测与链路哨兵架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 heart 适配鸿蒙 HarmonyOS 实战:分布式心跳监控,构建全场景保活检测与链路哨兵架构 前言 在鸿蒙(OpenHarmony)生态迈向万物智联、涉及海量传感器节点通信、分布式长连接保活及实时状态同步的背景下,如何确保终端设备在弱网、休眠或异常断电场景下仍能被母座感知,已成为决定系统可用性的“生命信标”。在鸿蒙设备这类强调分布式软总线协同与严苛电源管理的环境下,如果应用依然依赖基础的 HTTP 定时轮询执行状态探测,由于由于 CPU 频繁唤醒带来的功耗负担及无状态协议的连接开销,极易由于由于心跳风暴导致设备续航崩穿或大规模误判掉线。 我们需要一种能够实现毫秒级超时检测、支持异步回调闭环且具备高性能状态机控制的心跳监控方案。 heart 为 Flutter 开发者引入了轻量级且工业标准的“心搏”治理范式。它通过对 Ping-Pong 交互的时序解构,将复杂的超时重试与状态翻转逻辑封装为声明式的配置。在适配到鸿蒙 HarmonyO

By Ne0inhk
Docker架构深度解析:从核心概念到企业级实践

Docker架构深度解析:从核心概念到企业级实践

Docker架构深度解析:从核心概念到企业级实践 * 一、Docker架构全景图 * 1.1 整体架构示意图 * 二、核心组件深度解析 * 2.1 Docker Daemon工作机制 * 三、镜像与容器原理 * 3.1 镜像分层结构 * 3.2 容器生命周期 * 四、网络架构详解 * 4.1 网络模式对比 * 4.2 Bridge网络实现原理 * 五、存储架构与实践 * 5.1 存储驱动对比 * 5.2 数据卷使用模式 * 六、企业级实践方案 * 6.1 高可用架构设计 * 七、安全最佳实践 * 7.1 安全防护体系 * 八、性能调优指南 * 8.

By Ne0inhk