本地离线部署 AI 大模型:Ollama + Qwen3.5 + OpenClaw 实战指南
随着开源大模型的成熟,我们完全可以在本地运行 AI,无需联网、不上传数据,既免费又隐私。本文将带你一步步完成 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天助手,兼顾效果与低配置适配。
环境准备
- 操作系统:Windows 10 / Windows 11
- 内存:最低 8GB(推荐 16GB 更流畅)
- 显卡:无需独立显卡,CPU 即可运行
- 网络:仅在下载模型时需要,运行时可完全断网
安装步骤
1. 安装 Ollama
Ollama 是运行模型的核心工具,支持一键拉取和管理。
- 访问官网 https://ollama.com/ 下载 Windows 版本。
- 双击安装包,按提示完成安装。
- 安装完成后,Ollama 会自动在后台运行。
验证是否成功:打开 CMD 或 PowerShell,输入以下命令:
ollama --version
出现版本号即表示安装成功。
2. 下载并运行模型
根据电脑配置选择模型。优先推荐 qwen3.5:cloud(效果更好),8GB 内存低配电脑推荐 qwen3:0.6b(更流畅)。
2.1 主力模型:Qwen3.5:cloud
在命令行输入以下命令,首次运行会自动下载模型,完成后出现 >>> 即启动成功:
ollama run qwen3.5:cloud
此时可直接输入问题测试,例如:
你好,介绍一下自己

模型能正常回答,说明部署成功。
2.2 轻量备选:Qwen3:0.6b
若运行主力模型卡顿,可切换至超轻量模型:
ollama run qwen3:0.6b
同样输入 你好,介绍一下自己 进行测试。

3. 安装 OpenClaw 可视化界面
OpenClaw 提供类似 ChatGPT 的交互体验,无需敲命令。
- 访问 GitHub 发布页 https://github.com/sqzw-x/OpenClaw 下载 Windows 安装包。




