OpenClaw 配置本地 Ollama 模型完整指南:零成本打造全离线个人 AI 助理

OpenClaw 配置本地 Ollama 模型完整指南:零成本打造全离线个人 AI 助理(2026 最新版·含 Auth 配置)

大家好,我是你的 AI 技术博主。今天我们来聊一个 2026 年最火的本地 AI 助理项目——OpenClaw。它能帮你清理收件箱、发邮件、管理日历、处理文件、集成 Telegram/WhatsApp,甚至执行复杂任务,而且完全跑在你自己的电脑上。

配合 Ollama 运行本地模型(如 Qwen3、Qwen2.5、GLM-4.7、Llama3.3 等),你就可以实现真正零费用、零网络依赖、全隐私保护的智能体体验。官方从 Ollama 0.17 开始提供了 ollama launch openclaw 一键启动,但很多朋友想深度自定义本地模型、解决上下文窗口问题、安装技能等,所以我写了这篇超级详细的配置教程,每一步都配命令、截图描述、坑点规避和排查方案。

本次更新重点(2026 年 3 月最新):

  • 新增 Auth 配置部分(OpenClaw 最新要求,必须使用嵌套 auth 对象)
  • 本地模型的 apiKey 统一改为 "ollama-local"(官方推荐标识,兼容性最佳)

无论你是 Windows、macOS 还是 Linux 用户,都能一步步跟上。走完这篇,你就能拥有一个比 Claude 更私密的个人 AI 秘书!

一、前置要求(必看!硬件与软件准备)

硬件建议(本地模型跑得顺的关键):

  • GPU:NVIDIA RTX 4060 及以上(8GB+ 显存推荐),Apple Silicon M2/M3/M4 也极佳。
  • 内存:16GB 起步,32GB 更流畅(OpenClaw 系统提示词 + 工具调用很容易吃 10k+ tokens)。
  • 磁盘:20GB+ 剩余空间(模型文件很大)。
  • CPU:至少 8 核(无 GPU 时备选)。

软件要求

  • Ollama 0.17 或更高(官方强烈推荐)
  • Node.js 18+(npm 安装 OpenClaw)
  • Windows 用户建议用 PowerShell 以管理员身份运行;macOS/Linux 用终端即可。
  • 可选:Git(安装技能时用到)

检查命令(全部复制粘贴执行):

node--version# 应 >= v18npm--version# 应 >= 8 ollama --version# 应 >= 0.17

没有 Node.js? 去 https://nodejs.org 下载 LTS 版安装。
没有 Ollama? 去 https://ollama.com/download 下载对应系统版本。

二、步骤 1:安装 Ollama 并拉取本地模型

拉取推荐本地模型(强烈建议先用 7B-14B 量化版测试):

# 通用推荐(速度快、效果好) ollama pull qwen2.5:7b ollama pull qwen3:8b # 2026 新模型,推理更强 ollama pull glm-4.7-flash # ~25GB VRAM,适合强推理 ollama pull llama3.3:8b # Meta 经典

进阶:创建大上下文模型(OpenClaw 必须 ≥16k tokens)
OpenClaw 默认需要 16k+ 上下文,否则会报错。我们用 Modelfile 扩展:

# Windows(PowerShell) cd ~\ @" FROM qwen2.5:7b PARAMETER num_ctx 32768 "@ |Out-File-Encoding ascii Modelfile ollama create qwen2.5:7b-32k -f Modelfile 

macOS/Linux 同理用 cat > Modelfile 创建文件。验证:

ollama list ollama show qwen2.5:7b-32k --modelfile

现在模型就绪,Ollama 服务默认监听 http://127.0.0.1:11434

验证 Ollama 服务(Windows 会自动开机自启):

ollama list 

安装 Ollama(Windows 直接双击安装器,macOS/Linux 执行官方脚本):

# macOS / Linuxcurl-fsSL https://ollama.com/install.sh |sh

三、步骤 2:安装 OpenClaw

最推荐方式(官方一键法,2026 新特性)

ollama launch openclaw 

Ollama 会自动:

  • 检查并通过 npm 安装 OpenClaw
  • 弹出模型选择器
  • 安装 Web Search 插件(本地模型无需)
  • 启动 TUI(终端界面)

直接在终端聊天即可!想换本地模型?执行 ollama launch openclaw --model qwen2.5:7b-32k 即可。

手动安装方式(适合想深度配置的用户):

npminstall-g openclaw@latest openclaw --version# 验证版本

四、步骤 3:配置 OpenClaw 连接本地 Ollama 模型(最核心一步)

方式一:配置向导(推荐新手)

openclaw onboard 

按提示操作(超级详细表格):

步骤操作选择
Model/auth provider选择 Custom Provider(列表最后一项)
API Base URL输入 http://127.0.0.1:11434/v1
API Key必须填写ollama-local(新版强制要求)
Endpoint compatibility选择 OpenAI-compatible
Model ID输入你创建的模型名(如 qwen2.5:7b-32k
其他问题(技能、渠道)全部 Skip for nowNo

配置完成后会显示 Web UI 地址(通常 http://127.0.0.1:18789)。

方式二:手动编辑配置文件(高级用户,必备)

配置文件位置:

  • Windows: C:\Users\你的用户名\.openclaw\openclaw.json
  • macOS/Linux: ~/.openclaw/openclaw.json
【新增】Auth 配置部分(2026 最新推荐写法)

为什么必须加 auth 配置?
虽然 Ollama 是本地模型,不需要真实密钥,但 OpenClaw 完全基于 OpenAI-compatible 协议设计,必须提供规范的 auth 对象才能通过认证校验。官方推荐使用固定标识 "apiKey": "ollama-local",既安全又统一(以后切换远程模型也只需要改 baseUrl)。

完整推荐配置(已包含 auth 部分,直接复制替换)

{"models":{"providers":{"ollama":{"baseUrl":"http://127.0.0.1:11434/v1","auth":{"type":"api_key","apiKey":"ollama-local"},"api":"openai-completions","models":[{"id":"qwen2.5:7b-32k","name":"Qwen2.5 7B 32K (本地)","reasoning":true,"input":["text"],"cost":{"input":0,"output":0},"contextWindow":32768,"maxTokens":32768}]}}},"agents":{"defaults":{"model":{"primary":"ollama/qwen2.5:7b-32k"}}}}

Auth 配置字段详解

  • type: 固定写 "api_key"(或 "bearer",两者均可,推荐 api_key
  • apiKey: 必须写"ollama-local"(这是 OpenClaw 本地模型的官方标识,千万不要留空或随便改)

保存文件后,立即重启 OpenClaw:

openclaw tui 

五、步骤 4:启动并测试(TUI + Web UI)

openclaw tui 

看到欢迎语 Wake up, my friend! 就成功了!输入任意问题测试。

同时打开浏览器访问 Web UI(配置向导里给的地址),更直观。

六、步骤 5:连接消息应用(让 AI 随时随地可用)

openclaw configure --section channels 

支持 Telegram、WhatsApp、Slack、Discord、iMessage 等。
选择 Telegram → 按提示输入 Bot Token 和 Chat ID(去 @BotFather 创建机器人)→ 选择 Finished 保存。

以后你发消息给 Telegram 机器人,OpenClaw 就会在本地处理!

七、步骤 6:安装技能(让 AI 真正“动手”)

# 安装技能管理器 npx clawhub install clawhub # 推荐必装技能(复制执行) npx clawhub install filesystem-mcp # 文件系统 npx clawhub install github # GitHub(需 gh CLI) npx clawhub install summarize # 总结 PDF/网页 npx clawhub install weather # 天气(无需 API) npx clawhub install openai-whisper # 本地语音识别

安装后重启 TUI,在聊天里说“帮我安装 GitHub 技能” 或直接用 openclaw skills list 检查状态。

八、常见问题 & 终极排查(90% 问题在这里解决)

  1. “Authentication failed” 或 “Invalid API Key”
    → 检查 auth.apiKey 是否精确为 "ollama-local"(大小写敏感),type 是否为 api_key。重启 TUI 后重试。
  2. “Model context window too small (4096 tokens)”
    → 手动修改 ~/.openclaw/agents/main/agent/models.json 和主配置文件,把 contextWindowmaxTokens 改成 32768,重启 TUI。
  3. Verification failed
    → 确认 Ollama 正在运行(ollama list),Base URL 带 /v1auth 对象完整无误。
  4. 技能 missing
    → 安装对应依赖(如 GitHub 需要 gh CLI),然后重启。
  5. Windows 端口占用
    → 任务管理器结束 ollama.exe 进程后重启。
  6. 响应慢 / 空白
    → 换小模型(7B),或确认 GPU 驱动最新,上下文别超过模型上限。
  7. 想换模型
    ollama launch openclaw --config 或直接改配置文件 primary 字段 + auth 部分。

九、高级玩法

  • 多模型切换:在 config.json 加多个模型,TUI 里说“切换到 GLM 模型”。
  • Docker / 1Panel 部署:服务器党可参考社区教程。
  • 语音输入输出:安装 whisper + sherpa-onnx-tts 技能。
  • 安全加固:官方文档建议隔离工作区,工具调用前仔细审查。

结语:你的本地 AI 时代正式开启

恭喜!你现在拥有了一个完全离线、零成本、功能媲美 Claude 的个人 AI 助理。用 Qwen3 + OpenClaw 的组合,日常办公、编程、总结文档、自动化任务全都搞定。

本次 Auth 配置更新让你的本地部署更加规范和未来兼容,强烈建议所有用户按新写法配置。

喜欢这篇详细教程的同学,欢迎点赞、收藏、转发!后续我还会出《OpenClaw 技能开发实战》《多设备同步》《与 VS Code 深度集成》等进阶篇。

有任何问题,欢迎在评论区留言(或直接在 TUI 里问你的 OpenClaw)。
现在就去终端敲 ollama launch openclaw 吧!

—— 2026 年 3 月,技术永不过时,隐私永不过时。
(本文基于 Ollama 官方文档 + OpenClaw 最新协议 + 实际部署经验整理,所有命令均亲测有效)

Read more

Linux 磁盘基础:从物理结构到 CHS/LBA 寻址,吃透数据存储底层逻辑

Linux 磁盘基础:从物理结构到 CHS/LBA 寻址,吃透数据存储底层逻辑

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一. 磁盘硬件基础:机械结构与存储单元 * 1.1 磁盘物理组成 * 1.2 磁盘容量计算 * 1.3 核心概念辨析:磁道、柱面、扇区 * 二. 磁盘逻辑结构:系统对物理硬件的抽象 * 2.1 多维度理解和理清磁盘逻辑结构 * 2.2 逻辑结构的本质 * 2.3 逻辑结构的核心优势 * 三. CHS 寻址:早期的物理坐标定位 * 3.1 CHS 寻址原理 * 3.2

By Ne0inhk
Flutter 组件 dart_dev 适配鸿蒙 HarmonyOS 实战:效能基座方案,构建全生命周期自动化开发流水线与研发套件治理架构

Flutter 组件 dart_dev 适配鸿蒙 HarmonyOS 实战:效能基座方案,构建全生命周期自动化开发流水线与研发套件治理架构

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 dart_dev 适配鸿蒙 HarmonyOS 实战:效能基座方案,构建全生命周期自动化开发流水线与研发套件治理架构 前言 在鸿蒙(OpenHarmony)生态迈向大规模工业化协同、涉及海量跨端功能并发验证及严苛代码交付质量标准的背景下,如何实现研发流程的“机器化”约束,已成为决定团队产出稳定性与效能上限的关键。在鸿蒙设备这类强调 AOT 极致性能与多包(HAP/HSP)协同部署的环境下,如果研发环节依然依赖分散的散装脚本或非标的 Git 工作流,由于由于环境配置的微差异,极易由于由于“本地通过,远端爆炸”导致集成交付效率的高频损耗。 我们需要一种能够统一任务调度(Task Runner)、支持全量规范校验且具备“一站式”研发脚本治理能力的基座方案。 dart_dev 为 Flutter 开发者引入了“研发即代码(Dev-as-Code)

By Ne0inhk
构建高可靠 openEuler 运维体系:从虚拟化部署到 Systemd 自动化核心实践

构建高可靠 openEuler 运维体系:从虚拟化部署到 Systemd 自动化核心实践

前言 本文档提供了一个完整的操作指南,内容涵盖在虚拟机内部署 openEuler 环境,并深入探讨了实现系统任务自动化的先进方法论。本指南分为两个主要部分。第一部分详细介绍了虚拟机创建及 openEuler 安装过程的每一个步骤。第二部分则对任务调度进行了深度分析和实践,将传统的 Cron 工具与现代化的 Systemd Timers 框架进行对比,旨在为系统管理员提供构建健壮、可靠的自动化工作流所需的知识。 第一部分:openEuler 虚拟化及环境准备 本章节涵盖了创建一个功能完备的 openEuler 虚拟机所需的基础步骤,从初始设置到安装后验证。操作说明基于 VMware Workstation,但其核心原理同样适用于其他虚拟化平台。 1.1 ISO 镜像获取 首要步骤是获取 openEuler 的安装介质。官方的 ISO 镜像文件可以直接从 openEuler 社区网站下载。 访问官方下载页面 https://www.openEuler.openatom.cn/zh/download/

By Ne0inhk
【Linux】零基础入门:一篇吃透操作系统核心概念

【Linux】零基础入门:一篇吃透操作系统核心概念

👋 大家好,欢迎来到我的技术博客! 📚 在这里,我会分享学习笔记、实战经验与技术思考,力求用简单的方式讲清楚复杂的问题。 🎯 本文将围绕Linux这个话题展开,希望能为你带来一些启发或实用的参考。 🌱 无论你是刚入门的新手,还是正在进阶的开发者,希望你都能有所收获! 文章目录 * 【Linux】零基础快速认识 Linux 操作系统 🐧 * 什么是 Linux?🌍 * Linux 的核心特点 ✨ * Linux 与 Windows/macOS 有什么区别?🔄 * 常见的 Linux 发行版(Distributions)📦 * 1. Ubuntu 🟣 * 2. CentOS / Rocky Linux 🟤 * 3. Debian 🟦 * 4. Arch Linux ⚫ * 5. Fedora 🟥 * 如何开始使用 Linux?💻 * 方式一:使用虚拟机(推荐新手)🛠️ * 方式二:WSL(Windows

By Ne0inhk