本地离线部署 AI 大模型:Ollama + OpenClaw + Qwen 系列实战
随着开源大模型的成熟,我们完全可以在本地电脑上运行 AI,不联网、不上传数据,隐私性极强。今天我会带你完成 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天 AI,兼顾效果与低配置适配。
环境准备
- 操作系统:Windows 10 / Windows 11
- 内存:最低 8GB(推荐 16GB 更流畅)
- 显卡:无需独立显卡,CPU 即可运行
- 网络:仅在下载模型时需要,运行时可完全断网
安装与配置步骤
1. 安装 Ollama
Ollama 是运行模型的核心工具,支持一键拉取和管理。
- 访问官网下载 Windows 版本并安装。
- 安装完成后,Ollama 会自动在后台运行。
- 验证安装:打开 CMD 或 PowerShell,输入
ollama --version,出现版本号即成功。
2. 拉取并运行模型
根据电脑配置选择模型。优先推荐 Qwen3.5:cloud(效果更好),8GB 内存低配电脑推荐 Qwen3:0.6b(更流畅)。
主力模型:Qwen3.5:cloud
在命令行输入以下命令,首次运行会自动下载模型,完成后出现 >>> 表示启动成功:
ollama run qwen3.5:cloud
此时可直接输入问题测试,例如:
你好,介绍一下自己
若模型正常回答,说明部署成功。
轻量备选:Qwen3:0.6b
若运行主力模型卡顿,可切换至超轻量模型:
ollama run qwen3:0.6b
同样输入 你好,介绍一下自己 进行测试。出现 >>> 且能正常回答,说明轻量版部署成功。
3. 配置 OpenClaw 可视化界面
OpenClaw 提供类似 ChatGPT 的交互体验,无需敲命令。
- 从 GitHub 发布页下载 Windows 安装包并解压运行。
- 点击右上角进入设置。
- 模型选择:主力推荐
qwen3.5:cloud,低配电脑选择qwen3:0.6b。 - Ollama 地址:保持默认
http://localhost:11434。 - 保存设置后回到主界面即可开始聊天。
效果与性能表现
- 启动速度:约 3~10 秒(Qwen3.5:cloud),1~3 秒(Qwen3:0.6b)
- 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
- 回答速度:均流畅可日常使用,低配电脑建议选轻量模型
常见问题与解决
1. 模型下载特别慢
- 暂停下载重新开始,进度通常不会丢失。
- 避开网络高峰期,如深夜时段下载。
2. OpenClaw 连接失败
- 确保 Ollama 正在后台运行(查看任务栏图标)。
- 重启 Ollama:右键任务栏图标 → Restart。
- 检查地址是否为
http://localhost:11434,切勿多写或少写字符。
3. 电脑卡顿、内存不足
- 关闭浏览器、视频软件等占用内存较大的程序。
- 切换至超轻量模型:
ollama run qwen3:0.6b。 - 若仍卡顿,尝试更小参数模型:
ollama run qwen3.5:4b。
4. OpenClaw 不显示模型列表
- 重启 OpenClaw 软件重新加载。
- 确认 Ollama 已拉取模型:命令行输入
ollama list。 - 重新进入 OpenClaw 设置,手动选择对应模型名称并保存。
总结
通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,我们实现了:
- 本地离线运行大模型,数据不上传,隐私百分百安全
- 完全免费、无流量限制
- 可视化界面,体验接近在线 AI
适合人群包括想学习 AI 本地部署的新手、注重隐私的用户、学生及开发者。即使是 8GB 内存的低配电脑,选择合适的模型也能轻松运行。


