本地离线部署 AI 大模型:Ollama + OpenClaw + Qwen3 系列实战
随着开源大模型日益成熟,我们完全可以在自己电脑上本地运行 AI,不联网、不上传数据、免费使用,隐私性极强。
环境准备
- 操作系统:Windows 10 / Windows 11
- 内存:最低 8GB(推荐 16GB 更流畅)
- 硬件:无需独立显卡,CPU 即可运行
- 网络:仅在下载模型时需要,运行时可完全断网
安装步骤
1. 安装 Ollama
Ollama 是运行模型的核心,安装非常简单。
- 访问官网 https://ollama.com/ 下载 Windows 版本。
- 双击安装,一路下一步。
- 安装完成后,Ollama 会自动在后台运行。
验证是否成功:打开 CMD 或 PowerShell,输入:
ollama --version
出现版本号即成功。
2. 拉取并运行模型
根据配置选择模型。优先推荐 qwen3.5:cloud(效果更好),8GB 内存低配电脑推荐 qwen3:0.6b(更流畅)。
主力模型:
ollama run qwen3.5:cloud
出现 >>> 表示模型已启动成功,可直接输入问题测试。
轻量备选: 若运行主力模型卡顿,可切换至轻量模型:
ollama run qwen3:0.6b
3. 配置 OpenClaw 可视化界面
OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。
- 从 GitHub 发布页下载 Windows 安装包并解压。
- 打开软件,点击右上角进入设置。
- 模型选择:根据自身需求选择
qwen3.5:cloud或qwen3:0.6b。 - Ollama 地址保持默认:
http://localhost:11434。 - 保存设置后回到主界面即可开始聊天。
效果与性能
- 启动速度:约 3~10 秒
- 回答速度:流畅,可日常使用
- 内存占用:Qwen3.5 约 2GB~4GB,Qwen3 约 1GB~1.5GB
常见问题
1. 模型下载特别慢 暂停下载重新开始,进度不会变;或避开网络高峰期。
2. OpenClaw 连接失败 确保 Ollama 正在后台运行(任务栏右下角查看图标)。重启 Ollama 并检查地址是否为 。


