Windows 本地部署 Ollama 与 OpenClaw,构建 AI 生产力系统
前言
很多开发者想尝试 AI 变现,却常被技术门槛劝退:云端 API 成本高、文档晦涩难懂、数据隐私担忧。其实,你手头的 Windows 电脑完全能胜任。
本文将带你搭建一套完全本地化、免费、可扩展的 AI 生产力系统。核心思路是利用 Ollama 运行本地大模型作为'大脑',配合 OpenClaw(原 OpenClaude)作为智能中枢调用工具,让 AI 具备开发 APP、量化分析、写作等实操能力。
系统架构简述:
- 本地大脑:Ollama + DeepSeek 模型,负责理解任务与生成内容。
- 智能中枢:OpenClaw,负责调度各类 Skill 插件。
- 技能扩展:通过安装 Skill 包,赋予 AI 特定领域的执行能力。
硬件准备
在动手前,先确认你的电脑配置。这直接决定了 AI 的运行速度。
| 配置项 | 最低要求 | 推荐配置 | 检查方法 |
|---|---|---|---|
| 操作系统 | Windows 10 64 位 | Windows 11 | 右键'此电脑'->'属性' |
| 内存 | 16GB | 32GB | 任务管理器 -> '性能' |
| 硬盘 | 20GB 空闲 | 50GB 以上 (SSD) | 打开'此电脑'查看 |
| 显卡 | 非必需 | NVIDIA RTX 2060+ | 任务管理器 -> '性能' -> 'GPU' |
提示:如果没有独立显卡,仅靠 CPU 也能运行,只是响应稍慢,不影响学习使用。
打造 AI 大脑:安装 Ollama 并部署 DeepSeek
Ollama 是一个极简的大模型管理工具,支持像安装 App 一样在本地运行模型。我们选择国产开源模型 deepseek-r1:7b,它在推理和代码生成方面表现优异且对内存友好。
1. 下载并安装 Ollama
访问 Ollama 官网下载 Windows 版本,双击安装包一路点击 Next 即可。安装成功后,任务栏右下角会出现一个小羊驼图标,表示服务已在后台运行。
2. 拉取模型
按 Win + R 输入 cmd 打开命令提示符。首次运行会自动下载模型,根据网速可能需要 10-30 分钟。
ollama run deepseek-r1:7b
等待进度条走完,出现 >>> 提示符后,你可以输入'你好'测试模型回复。输入 /bye 可退出对话。

