本地离线部署 AI 大模型:OpenClaw + Ollama + Qwen3.5 实战指南
前言
随着开源大模型日益成熟,我们完全可以在个人电脑上本地运行 AI,不联网、不上传数据,既免费又保护隐私。今天分享一套方案:Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(轻量备选)+ OpenClaw,实现属于自己的本地聊天 AI,兼顾效果与低配适配。
项目概览
本项目旨在本地离线运行阿里通义千问系列模型,全程无需云端 API 和高性能显卡,普通电脑即可运行。
- Ollama:核心管理工具,一键拉取、运行模型。
- Qwen3.5:cloud:阿里云开源轻量高性能模型,对话效果好,作为主力。
- Qwen3:0.6b:超轻量大模型,占用内存极低(约 1GB),适合 8GB 内存电脑。
- OpenClaw:美观的本地 AI 可视化交互界面。 特点:免费、离线、隐私安全、低配置可运行。
环境准备
- 操作系统:Windows 10 / 11
- 内存:最低 8GB(推荐 16GB)
- 硬件:无需独立显卡,CPU 即可
- 网络:仅下载模型时需要,运行时可断网
安装与配置步骤
1. 安装 Ollama
Ollama 是运行模型的核心,安装非常简单。
- 访问官网 https://ollama.com/ 下载 Windows 版本。
- 双击安装包,按提示完成安装。
- 安装完成后,Ollama 会自动在后台运行。
验证安装是否成功:打开 CMD 或 PowerShell,输入以下命令:
ollama --version
出现版本号即表示成功。
2. 拉取并运行模型
根据电脑配置选择模型。优先推荐 Qwen3.5:cloud(效果更好),8GB 内存低配电脑推荐 Qwen3:0.6b(更流畅)。
2.1 运行 Qwen3.5:cloud(主力模型)
在命令行输入:
ollama run qwen3.5:cloud
首次运行会自动下载模型,完成后出现 >>> 提示符即启动成功。此时可直接输入问题测试,例如'你好,介绍一下自己'。模型能正常回答,说明部署成功。
2.2 运行 Qwen3:0.6b(轻量备选)
若电脑内存较低,运行 Qwen3.5:cloud 卡顿,可切换至超轻量模型:
ollama run qwen3:0.6b
同样等待 >>> 出现后,输入问题测试即可。
3. 配置 OpenClaw 可视化界面
OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。
- 访问 GitHub 发布页下载 Windows 安装包并解压运行。
- 打开软件,点击右上角进入设置。
- 模型选择:主力推荐
qwen3.5:cloud,低配电脑选qwen3:0.6b。 - Ollama 地址保持默认:
http://localhost:11434。 - 保存设置,回到主界面即可开始聊天。
效果与性能
- 启动速度:Qwen3.5:cloud 约 3~10 秒,Qwen3:0.6b 约 1~3 秒。


