概述
在本地构建 AI 工作流,既能避免云端 API 的费用与延迟,又能保障数据隐私。本文将介绍如何在 Windows 环境下,利用 Ollama 运行本地大模型,并通过 OpenClaw 智能中枢调用各类工具插件,实现自动化任务处理。
系统架构:
- 推理核心:Ollama + DeepSeek 模型,负责理解指令与生成内容。
- 执行中枢:OpenClaw(原 OpenClaude),负责调度外部工具与技能包。
- 功能扩展:通过 Skill 插件赋予 AI 开发、分析、写作等具体能力。
适用场景包括代码编写、数据分析、文案生成及视频辅助处理等。
硬件准备
部署前请确认电脑配置,这直接影响模型响应速度。
| 配置项 | 最低要求 | 推荐配置 | 检查方法 |
|---|---|---|---|
| 操作系统 | Windows 10 64 位 | Windows 11 | 右键'此电脑'->'属性' |
| 内存 | 16GB | 32GB | 任务管理器->'性能' |
| 硬盘 | 20GB 空闲 | 50GB 以上 (SSD) | '此电脑'查看可用空间 |
| 显卡 | CPU 即可 | NVIDIA RTX 2060+ | 任务管理器->'性能'->'GPU' |
提示:若无独立显卡,仅靠 CPU 也能运行,但速度会稍慢。
第一步:搭建推理核心 (Ollama)
Ollama 是轻量级的大模型管理工具,支持在本地运行多种开源模型。我们选用 DeepSeek-R1 (7B),它在逻辑推理与代码生成上表现优异且对资源友好。
1. 安装 Ollama
访问官网下载 Windows 版本并安装。安装完成后,任务栏右下角会出现羊驼图标,表示服务已启动。
2. 拉取模型
打开命令提示符 (Win + R -> cmd),输入以下命令开始下载并进入对话模式:
ollama run deepseek-r1:7b
首次运行会自动下载模型文件,耗时约 10-30 分钟。下载完成后出现 >>> 提示符,输入'你好'测试模型是否正常回复。输入 /bye 可退出对话。
第二步:安装智能中枢 (OpenClaw)
OpenClaw 作为操作系统层面的智能中枢,能让 AI 调用文件系统、网络工具等外部能力。
1. 环境准备
OpenClaw 基于 Node.js 开发,需先安装 LTS 版本的 Node.js。安装时务必勾选自动安装必要工具选项,以便配置 Python 和 Visual Studio Build Tools 等依赖。
验证安装是否成功:

