跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
搜索
|注册
博客列表
PythonNode.jsAI

基于 OpenClaw 与 Ollama 的本地 AI 智能体搭建指南

在本地环境部署 AI 智能体需安装 Python 解释器及 Ollama 运行库。配置 Qwen 模型作为后端,利用 OpenClaw 框架连接本地服务。通过 Python 脚本调用 Ollama API 实现命令行交互,无需云端付费,保障数据隐私。本教程涵盖从环境搭建到代码运行的完整流程,适合希望私有化部署大模型的开发者参考。

leon发布于 2026/4/10更新于 2026/4/223 浏览
基于 OpenClaw 与 Ollama 的本地 AI 智能体搭建指南

基于 OpenClaw 与 Ollama 的本地 AI 智能体搭建指南

一、前言

OpenClaw 是近期热门的开源项目,支持在本地运行 AI 智能体。通过本地部署,可以避免云端服务费用并保护数据隐私。本教程将指导初学者完成 Python 环境配置、Ollama 模型安装及 OpenClaw 框架搭建。

二、第一步:安装 Python 环境

AI 智能体依赖代码执行,Python 是基础环境。

2.1 下载 Python

  1. 打开浏览器访问 https://www.python.org/downloads/。
  2. 点击页面中的 Download Python 3.x.x 链接,或进入 Python Releases for Windows 选择稳定版本(如 Python 3.12.3)。
  3. 下载 Windows installer (64-bit) 安装包。

2.2 安装 Python

  1. 双击运行下载的 .exe 文件。
  2. 关键步骤:务必勾选 Add Python to PATH 复选框,否则命令行无法识别 python 命令。
  3. 点击 Install Now 完成安装。

2.3 验证安装

打开命令提示符(Win + R → cmd),输入以下命令:

python --version

若显示版本号则安装成功。

三、第二步:配置本地大模型(Ollama + Qwen)

OpenClaw 需要本地推理后端,这里使用 Ollama 和 Qwen 模型。

3.1 安装 Ollama

  1. 访问 https://ollama.com/ 下载 Windows 版本。
  2. 运行安装程序,一路点击 Install。
  3. 安装完成后,任务栏右下角会出现 Ollama 图标,表示后台服务已启动。

3.2 验证与下载模型

  1. 打开命令提示符,输入 ollama --version 检查版本。
  2. 运行以下命令下载 Qwen 模型:
ollama run qwen2.5

首次运行会自动下载模型(约 4GB)。下载完成后即可在命令行对话。若内存较小,可选择 qwen2.5:0.5b 等轻量版本。

四、第三步:安装 OpenClaw

OpenClaw 用于连接聊天工具和本地模型。

4.1 安装 Node.js

OpenClaw 依赖 Node.js 环境。

  1. 访问 https://nodejs.cn/download/ 下载 Windows 64 位安装包。
  2. 安装完成后,在命令行输入 node -v 验证版本。

4.2 运行安装脚本

  1. 按 Win + X,选择 'Windows PowerShell(管理员)'。
  2. 复制并粘贴以下命令回车执行:
iwr -useb https://openclaw.ai/install.ps1 | iex

该脚本会自动检查环境并安装 OpenClaw CLI。

4.3 配置向导

根据交互式引导操作:

  1. 同意条款输入 yes。
  2. 选择 QuickStart 模式。
  3. 配置模型 Provider 为 Custom Provider:
    • API Base URL: http://127.0.0.1:11434/v1
    • API Key: 随意填写(如 ollama)
    • Endpoint compatibility: OpenAI-compatible
    • Model ID: 填入 qwen2.5
  4. 跳过聊天工具接入,选择 WebChat 或直接完成。
  5. 记录生成的 Web UI 地址和 Token。

五、第四步:编写 Python 客户端

为了更灵活地调用本地模型,可编写简单的 Python 脚本。

5.1 安装 SDK

在命令行中运行:

pip install ollama

5.2 编写脚本

新建文件 main.py,写入以下代码:

# -*- coding: utf-8 -*-
import ollama

def local_jarvis():
    print("="*50)
    print("本地 AI 智能体已启动!模型:qwen2.5(Ollama)")
    print("输入 'exit' 可以退出")
    print("="*50 + "\n")
    while True:
        try:
            user_input = input("我说:")
        except EOFError:
            break
        if user_input.lower() in ["exit", "quit", "退出", "q"]:
            print("AI:下次再一起干活!拜拜~")
            break
        try:
            response = ollama.chat(
                model="qwen2.5",
                messages=[{"role": "user", "content": user_input}]
            )
            print("AI:" + response["message"]["content"] + "\n")
        except Exception as e:
            print(f"错误:{e}\n")

if __name__ == "__main__":
    local_jarvis()

六、第五步:运行与测试

  1. 确保 Ollama 后台服务正在运行。
  2. 在终端进入脚本目录,运行:
python main.py
  1. 输入问题,例如:请用鲁迅的风格,吐槽一下总是想白嫖 AI 的心理。
  2. 模型将在本地计算并返回结果。

七、总结

本文完成了以下配置:

  1. 安装 Python 环境并配置环境变量。
  2. 部署 Ollama 及 Qwen 本地模型。
  3. 使用官方脚本安装 OpenClaw 框架。
  4. 编写 Python 脚本调用本地 API 实现交互。

注意事项:

  • OpenClaw 权限较大,建议在虚拟机或干净环境中测试。
  • 本地模型消耗内存和算力,注意电脑散热。
  • 进阶玩法包括接入 QQ、自动邮件等功能,需学习 Skills 和 Agents 配置。

通过此方案,用户可在本地构建私有化 AI 智能体,无需支付云端服务费,同时保障数据隐私。

目录

  1. 基于 OpenClaw 与 Ollama 的本地 AI 智能体搭建指南
  2. 一、前言
  3. 二、第一步:安装 Python 环境
  4. 2.1 下载 Python
  5. 2.2 安装 Python
  6. 2.3 验证安装
  7. 三、第二步:配置本地大模型(Ollama + Qwen)
  8. 3.1 安装 Ollama
  9. 3.2 验证与下载模型
  10. 四、第三步:安装 OpenClaw
  11. 4.1 安装 Node.js
  12. 4.2 运行安装脚本
  13. 4.3 配置向导
  14. 五、第四步:编写 Python 客户端
  15. 5.1 安装 SDK
  16. 5.2 编写脚本
  17. -- coding: utf-8 --
  18. 六、第五步:运行与测试
  19. 七、总结
  • 💰 8折买阿里云服务器限时8折了解详情
  • 💰 8折买阿里云服务器限时8折购买
  • 🦞 5分钟部署阿里云小龙虾了解详情
  • 🤖 一键搭建Deepseek满血版了解详情
  • 一键打造专属AI 智能体了解详情
极客日志微信公众号二维码

微信扫一扫,关注极客日志

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog

更多推荐文章

查看全部
  • Ubuntu 部署 OpenClaw 完整教程
  • Android 性能优化核心要点与行业实践总结
  • Python 智能 PDF 文档助手开发指南
  • AI 绘画报错:CheckpointLoaderSimple 模型缺失修复指南
  • 基于 YOLO26 深度学习的无人机视角路面病害检测识别系统
  • ARINC 825 航电通信总线标准详解
  • Copilot 与 Codeium 等 AI 代码助手核心技术解析
  • Openclaw+ 飞书多机器人配置全攻略(新手版)
  • Neat Download Manager (NDM) 安装配置教程(适用于 Windows 和 macOS)
  • OpenClaw In Docker 安全独立便捷部署方案
  • 基于 Claude 处理超长文档的 Prompt 编写指南
  • WebSocket 核心原理与前后端完整用法实战
  • LangChain 基本概念与链式应用解析
  • 网络安全入门:新手如何从零开始学习漏洞挖掘
  • AI 深度早报:GTC 开幕,Agent 平台与具身模型双线引爆
  • Java HashMap 从链表到红黑树的进化之路
  • Trae 配置 Java 环境并运行 SpringBoot 项目
  • 人工智能发展历程与现状分析
  • Windows 本地部署 Ollama 与 OpenClaw 实现 AI 自动化
  • Dify 与 MySQL 深度融合:基于 MCP 协议的数据交互实践

相关免费在线工具

  • RSA密钥对生成器

    生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online

  • Mermaid 预览与可视化编辑

    基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online

  • curl 转代码

    解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online

  • Base64 字符串编码/解码

    将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online

  • Base64 文件转换器

    将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online

  • Markdown转HTML

    将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online