本地离线部署 AI 大模型:Ollama + Qwen3.5 + OpenClaw 教程
项目概述
本项目实现本地离线运行阿里通义千问系列大模型,全程不需要云端 API,不需要高性能显卡,普通电脑即可运行。可根据自身电脑配置选择对应模型。
涉及工具:
- Ollama:本地大模型管理工具,支持一键拉取、运行、管理模型。
- Qwen3.5:cloud:阿里云开源轻量高性能大语言模型,对话效果强,作为主力使用。
- Qwen3:0.6b:阿里云开源超轻量大语言模型,占用内存极低,适合低配电脑,作为备选模型。
- OpenClaw:美观好用的本地 AI 可视化交互界面。
特点: 免费、离线、隐私安全、低配置可运行。
环境要求
- 操作系统:Windows 10 / Windows 11
- 内存:最低 8GB(推荐 16GB 更流畅)
- 显卡:无需独立显卡,CPU 即可运行
- 网络:仅在下载模型时需要,运行时可完全断网
安装步骤
1. 安装 Ollama
Ollama 是运行模型的核心,安装非常简单。
- 打开官网:https://ollama.com/
- 点击 Download 下载 Windows 版本
- 双击安装,一路下一步
- 安装完成后,Ollama 会自动在后台运行
验证是否安装成功:
打开 CMD 或 PowerShell,输入:
ollama --version
出现版本号即成功。
2. 下载并运行模型
根据电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB 内存低配电脑推荐 Qwen3:0.6b(更流畅)。
2.1 下载并运行 Qwen3.5:cloud(主力模型)
在命令行输入以下命令,第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功。
ollama run qwen3.5:cloud
出现 >>> 表示模型已启动成功,可直接输入问题测试。
2.2 下载并运行 Qwen3:0.6b(轻量备选模型)
若电脑内存较低(8GB 及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型。
ollama run qwen3:0.6b
出现 >>> 表示模型已启动成功。
3. 安装 OpenClaw 可视化界面
OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。
- 打开 OpenClaw 发布页:https://github.com/sqzw-x/OpenClaw
- 找到最新版本下载 Windows 安装包
- 解压或安装后打开软件
- 连接 OpenClaw 与本地 Ollama
打开 OpenClaw 后:
- 右上角进入设置
- 模型选择:根据自身需求选择,主力推荐
qwen3.5:cloud,低配电脑选择 qwen3:0.6b
- Ollama 地址保持默认:
http://localhost:11434
- 保存设置
回到主界面,即可开始聊天。
运行效果
- 模型启动速度:约 3~10 秒
- 回答速度:流畅,可日常使用
- 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
[图片:OpenClaw 连接成功界面]
[图片:任务管理器内存占用展示]
常见问题
1. 模型下载特别慢
- 先暂停下载重新开始,进度不会变
- 或等待半夜下载(避开网络高峰期)
2. OpenClaw 连接失败 / 连不上 127.0.0.1:11434
- 确保 Ollama 正在后台运行(任务栏右下角查看 Ollama 图标)
- 重启 Ollama:任务栏右键 Ollama → Restart
- 检查地址是否为:
http://localhost:11434(切勿多写/少写字符)
3. 电脑卡顿、内存不足
- 关闭其他软件(尤其是浏览器、视频软件、后台下载工具),释放内存
- 切换至超轻量模型:若运行 Qwen3.5:cloud 卡顿,可切换到 Qwen3:0.6b 模型
ollama run qwen3:0.6b
- 或使用更小参数模型(若 qwen3.5:cloud 卡顿):
qwen3.5:4b
4. OpenClaw 不显示模型
- 重启 OpenClaw 软件,重新加载模型列表
- 重新进入 OpenClaw 设置,选择模型并保存
- 确认 Ollama 已成功拉取模型(命令行输入
ollama list 可查看)
总结
通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,实现了:
- 本地离线运行大模型
- 完全免费、无流量限制
- 可视化界面,使用体验接近在线 AI
- 数据不上传,隐私百分百安全
适合人群:想学习 AI 本地部署的新手、注重隐私不想数据上传云端者、学生、开发者及日常办公用户;8GB 内存低配电脑也能轻松适配(选择 Qwen3:0.6b 模型)。