基于 OpenClaw 与 Ollama 的本地 AI 智能体搭建指南
一、前言
OpenClaw 是近期热门的开源项目,支持在本地运行 AI 智能体。通过本地部署,可以避免云端服务费用并保护数据隐私。本教程将指导初学者完成 Python 环境配置、Ollama 模型安装及 OpenClaw 框架搭建。
二、第一步:安装 Python 环境
AI 智能体依赖代码执行,Python 是基础环境。
2.1 下载 Python
- 打开浏览器访问 https://www.python.org/downloads/。
- 点击页面中的 Download Python 3.x.x 链接,或进入 Python Releases for Windows 选择稳定版本(如 Python 3.12.3)。
- 下载
Windows installer (64-bit)安装包。
2.2 安装 Python
- 双击运行下载的
.exe文件。 - 关键步骤:务必勾选 Add Python to PATH 复选框,否则命令行无法识别 python 命令。
- 点击 Install Now 完成安装。
2.3 验证安装
打开命令提示符(Win + R → cmd),输入以下命令:
python --version
若显示版本号则安装成功。
三、第二步:配置本地大模型(Ollama + Qwen)
OpenClaw 需要本地推理后端,这里使用 Ollama 和 Qwen 模型。
3.1 安装 Ollama
- 访问 https://ollama.com/ 下载 Windows 版本。
- 运行安装程序,一路点击 Install。
- 安装完成后,任务栏右下角会出现 Ollama 图标,表示后台服务已启动。
3.2 验证与下载模型
- 打开命令提示符,输入
ollama --version检查版本。 - 运行以下命令下载 Qwen 模型:
ollama run qwen2.5
首次运行会自动下载模型(约 4GB)。下载完成后即可在命令行对话。若内存较小,可选择 qwen2.5:0.5b 等轻量版本。
四、第三步:安装 OpenClaw
OpenClaw 用于连接聊天工具和本地模型。
4.1 安装 Node.js
OpenClaw 依赖 Node.js 环境。
- 访问 https://nodejs.cn/download/ 下载 Windows 64 位安装包。
- 安装完成后,在命令行输入
node -v验证版本。
4.2 运行安装脚本
- 按 Win + X,选择 'Windows PowerShell(管理员)'。
- 复制并粘贴以下命令回车执行:
iwr -useb https://openclaw.ai/install.ps1 | iex
该脚本会自动检查环境并安装 OpenClaw CLI。
4.3 配置向导
根据交互式引导操作:
- 同意条款输入
yes。 - 选择 QuickStart 模式。
- 配置模型 Provider 为 Custom Provider:
- API Base URL:
http://127.0.0.1:11434/v1 - API Key: 随意填写(如
ollama) - Endpoint compatibility: OpenAI-compatible
- Model ID: 填入
qwen2.5
- API Base URL:
- 跳过聊天工具接入,选择 WebChat 或直接完成。
- 记录生成的 Web UI 地址和 Token。
五、第四步:编写 Python 客户端
为了更灵活地调用本地模型,可编写简单的 Python 脚本。
5.1 安装 SDK
在命令行中运行:
pip install ollama
5.2 编写脚本
新建文件 main.py,写入以下代码:
# -*- coding: utf-8 -*-
import ollama
def local_jarvis():
print("="*50)
print("本地 AI 智能体已启动!模型:qwen2.5(Ollama)")
print("输入 'exit' 可以退出")
print("="*50 + "\n")
while True:
try:
user_input = input("我说:")
except EOFError:
break
if user_input.lower() in ["exit", "quit", "退出", "q"]:
print("AI:下次再一起干活!拜拜~")
break
try:
response = ollama.chat(
model="qwen2.5",
messages=[{"role": "user", "content": user_input}]
)
print("AI:" + response["message"]["content"] + "\n")
except Exception as e:
print(f"错误:{e}\n")
if __name__ == "__main__":
local_jarvis()
六、第五步:运行与测试
- 确保 Ollama 后台服务正在运行。
- 在终端进入脚本目录,运行:
python main.py
- 输入问题,例如:
请用鲁迅的风格,吐槽一下总是想白嫖 AI 的心理。 - 模型将在本地计算并返回结果。
七、总结
本文完成了以下配置:
- 安装 Python 环境并配置环境变量。
- 部署 Ollama 及 Qwen 本地模型。
- 使用官方脚本安装 OpenClaw 框架。
- 编写 Python 脚本调用本地 API 实现交互。
注意事项:
- OpenClaw 权限较大,建议在虚拟机或干净环境中测试。
- 本地模型消耗内存和算力,注意电脑散热。
- 进阶玩法包括接入 QQ、自动邮件等功能,需学习 Skills 和 Agents 配置。
通过此方案,用户可在本地构建私有化 AI 智能体,无需支付云端服务费,同时保障数据隐私。


