本地离线部署 AI 大模型:Ollama + OpenClaw + Qwen 实战指南
随着开源大模型的成熟,我们完全可以在本地运行 AI,不联网、不上传数据,隐私性极强。本文将带你完成 Ollama + Qwen3.5 + OpenClaw 的本地部署,兼顾效果与低配置适配。
核心工具与特点
- Ollama:本地大模型管理工具,一键拉取、运行。
- Qwen3.5:cloud:主力模型,对话效果好,适配本地。
- Qwen3:0.6b:轻量备选,占用内存极低(约 1GB),适合 8GB 内存电脑。
- OpenClaw:美观的本地 AI 可视化交互界面。
特点:免费、离线、隐私安全、CPU 即可运行。
环境准备
- 系统:Windows 10 / 11
- 内存:最低 8GB(推荐 16GB)
- 显卡:无需独立显卡,CPU 运行
- 网络:仅下载模型时需要,运行可断网
安装步骤
1. 安装 Ollama
Ollama 是运行模型的核心。访问官网下载 Windows 版本,双击安装后会自动在后台运行。
验证安装是否成功,打开 CMD 或 PowerShell 输入:
ollama --version
出现版本号即表示正常。
2. 下载并运行模型
根据电脑配置选择模型。优先推荐 Qwen3.5:cloud,低配电脑选 Qwen3:0.6b。
主力模型:Qwen3.5:cloud
在命令行输入以下命令,首次运行会自动下载。完成后出现 >>> 提示符即启动成功:
ollama run qwen3.5:cloud
此时可直接输入问题测试,例如'介绍一下自己'。若模型能正常回答,说明部署成功。
轻量备选:Qwen3:0.6b
若 8GB 及以下内存运行卡顿,可切换至轻量模型:
ollama run qwen3:0.6b
同样等待 >>> 出现后即可开始对话。
3. 配置 OpenClaw 界面
OpenClaw 提供类似 ChatGPT 的聊天体验,无需敲命令。
- 从 GitHub 发布页下载 Windows 安装包并解压运行。
- 点击右上角进入设置。
- 模型选择:主力推荐
qwen3.5:cloud,低配选qwen3:0.6b。 - Ollama 地址保持默认:
http://localhost:11434。 - 保存设置后返回主界面即可开始聊天。
常见问题排查
- 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB。
- 启动速度:主力模型约 3~10 秒,轻量模型约 1~3 秒。
- 连接失败:确保 Ollama 后台运行(任务栏图标可见)。若连不上
127.0.0.1:11434,尝试重启 Ollama 服务或检查地址拼写。 - 模型未显示:重启 OpenClaw 重新加载列表,或在命令行执行
ollama list确认模型已拉取。


