本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

前言

随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。

今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。

一、项目介绍

本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。

用到的工具:

    • Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型
    • Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
    • Qwen3:0.6b:阿里云开源的超轻量大语言模型,占用内存极低(1GB左右),适合8GB内存低配电脑,作为备选模型
    • OpenClaw:美观好用的本地AI可视化交互界面
    • 特点:免费、离线、隐私安全、低配置可运行

二、环境准备

    • 操作系统:Windows 10 / Windows 11
    • 内存:最低 8GB(推荐 16GB 更流畅)
    • 无需独立显卡,CPU 即可运行
    • 网络:仅在下载模型时需要,运行时可完全断网

三、详细安装步骤

  1. 安装 Ollama

Ollama 是运行模型的核心,安装非常简单。

  1. 打开官网:https://ollama.com/
  2. 点击 Download 下载 Windows 版本
  3. 双击安装,一路下一步
  4. 安装完成后,Ollama 会自动在后台运行

验证是否安装成功:

打开 CMD 或 PowerShell,输入:

ollama --version

出现版本号即成功。

  1. 使用 Ollama 下载并运行模型(Qwen3.5:cloud + Qwen3:0.6b)

我实际下载了两个模型,可根据自身电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB内存低配电脑推荐 Qwen3:0.6b(更流畅)。

2.1 下载并运行 Qwen3.5:cloud(主力模型)

继续在命令行输入以下命令,
第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功,可直接输入问题测试,适配低配电脑,运行流畅无压力。

ollama run qwen3.5:cloud

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:

你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明 Qwen3.5:cloud 部署成功。

2.2 下载并运行 Qwen3:0.6b(轻量备选模型)

若电脑内存较低(8GB及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型,命令行输入:

ollama run qwen3:0.6b

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:
你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明部署成功一半。

  1. 安装 OpenClaw 可视化界面

OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。

  1. 打开 OpenClaw 发布页:https://github.com/sqzw-x/OpenClaw
  2. 找到最新版本下载 Windows 安装包
  3. 解压或安装后打开软件
  4. 连接 OpenClaw 与本地 Ollama

打开 OpenClaw 后:

  1. 右上角进入设置
  2. 模型选择:根据自身需求选择,主力推荐 qwen3.5:cloud,低配电脑选择 qwen3:0.6b
  3. Ollama 地址保持默认:

http://localhost:11434

  1. 保存设置

回到主界面,即可开始聊天。

四、效果展示

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述
  1. 与AI对话的效果截图
  2. 任务管理器内存占用展示(打开任务管理器,切换到“性能-内存”页面,同步显示AI运行状态)
在这里插入图片描述


在这里插入图片描述

示例说明:

  1. OpenClaw 连接成功界面(截图包含设置页面、模型选择(可分别展示 qwen3.5:cloud 和 qwen3:0.6b 选择界面)、地址配置)
    • 模型启动速度:约 3~10 秒
    • 回答速度:流畅,可日常使用

五、常见问题与解决方法(非常重要)

    • 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
    • 模型启动速度:Qwen3.5:cloud 约 3~10 秒,Qwen3:0.6b 约 1~3 秒
    • 回答速度:均流畅可日常使用,Qwen3:0.6b 适配低配电脑,卡顿更少
  1. 模型下载特别慢

解决方法:

    • 先暂停下载重新开始,进度不会变
    • 或等待半夜下载(网络高峰期避开)
  1. OpenClaw 连接失败 / 连不上 127.0.0.1:11434

解决方法:

    • 确保 Ollama 正在后台运行(任务栏右下角查看 Ollama 图标)
    • 重启 Ollama:任务栏右键 Ollama → Restart
    • 检查地址是否为:http://localhost:11434(切勿多写/少写字符)
  1. 电脑卡顿、内存不足

解决方法:

    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具)
    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具),释放内存

解决方法:

切换/运行 Qwen3:0.6b 命令:

    • 切换至超轻量模型:若运行 Qwen3.5:cloud 卡顿,可切换到 Qwen3:0.6b 模型,占用内存极低,适配8GB及以下低配电脑

ollama run qwen3:0.6b

命令:

    • 使用更小参数模型(若 qwen3.5:cloud 卡顿):qwen3.5:4b
  1. OpenClaw 不显示模型(qwen3.5:cloud 或 qwen3:0.6b)

ollama run qwen3.5:4b

解决方法:

    • 重启 OpenClaw 软件,重新加载模型列表

解决方法:

    • 重新进入 OpenClaw 设置,根据自身需求选择 qwen3.5:cloud 或 qwen3:0.6b 模型并保存
    • 重启 OpenClaw 软件
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取的 qwen3.5:cloud 和 qwen3:0.6b 模型)
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取模型)

六、项目总结

通过 Ollama + Qwen3.5:cloud + OpenClaw,我们轻松实现了:

通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,我们轻松实现了:

    • 本地离线运行大模型
    • 完全免费、无流量限制
    • 可视化界面,使用体验接近在线AI
    • 数据不上传,隐私百分百安全

适合人群:

    • 想学习AI本地部署的新手
    • 想学习AI本地部署的新手
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用;8GB内存低配电脑也能轻松适配(选择 Qwen3:0.6b 模型)
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用

Read more

AstrBot+NapCat 一键部署 5 分钟搞定智能 QQ 机器人!cpolar解决公网访问 :cpolar 内网穿透实验室第 777 个成功挑战

AstrBot+NapCat 一键部署 5 分钟搞定智能 QQ 机器人!cpolar解决公网访问 :cpolar 内网穿透实验室第 777 个成功挑战

这篇教程会带你用最简单的方式:**只用一份 docker-compose,一次命令,5 分钟以内完成 AstrBot + NapCat 部署,把 DeepSeekAI 接入你的 QQ。**AstrBot 本身就是为 AI 而生的现代化机器人框架,插件丰富、支持 DeepSeek/OpenAI 等大模型、带 WebUI、可扩展性强,真正做到"搭好就能用"。照着做,你马上就能拥有属于自己的 QQ AI 机器人。 1 项目介绍 1.1 AstrBot是什么? GitHub 仓库:https://github.com/AstrBotDevs/AstrBot AstrBot 是一个专为 AI 大模型设计的开源聊天机器人框架,

OpenClaw上身机器人,AI不仅能帮订外卖,还能替你跑腿了!

OpenClaw上身机器人,AI不仅能帮订外卖,还能替你跑腿了!

手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 过去这些年,AI大多时候还只是待在屏幕里,帮人写写字、画画图或者跑个自动脚本。但最近 OpenClaw 生态彻底爆火,两个基于它的开源项目直接打破了虚拟与现实的界限。这消息一传出来,全球搞机器人和AI的极客们都坐不住了。 就在2月23号旧金山举行的 SF OpenClaw 黑客松上,ROSClaw 项目拿下了冠军。Irvin 团队搞出了一个中间连接层,把现在最火的开源 AI Agent 平台 OpenClaw 直接插到了真实的机器人硬件上。刚拿完奖,团队就大方地宣布把项目开源了。 手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 手把手教你一键部署OpenClaw(Clawdbot),2分钟搞定! 具体是怎么做到的呢?他们通过智能插件把 OpenClaw 接到了机器人操作系统(ROS 2)上,还利用 WebRTC 技术实现了超低延迟的安全连接。这意味着你在地球任何一个角落,都能远程操控那些兼容 ROS 的机器人。AI

VLM Unlearning 有关论文阅读总结与梳理

VLM Unlearning 有关论文阅读总结与梳理

文章目录 目录 前言 一、什么是 Unlearning 二、AUVIC 三、Neuron Pruning 四、 Neuron Path Editing 五、 MLLM Eraser 前言 本文整理了当前多模态大模型(VLM)中常见的 Unlearning 技术路线,主要包括: * AUVIC * Neuron Pruning * Neuron Path Editing * MLLM Eraser 这些方法的核心目标都是: 让模型“遗忘”指定知识,同时尽量不影响其它知识。 一、什么是 Unlearning 在多模态大模型(Vision-Language Model / VLA)中,我们经常需要: * 删除隐私数据 * 移除不安全知识 * 删除特定人物或敏感概念

Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座

Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 discord_interactions 的鸿蒙化适配指南 - 在 OpenHarmony 打造高效的社交机器人交互底座 在现代社交应用与办公协同工具的开发中,集成强大的机器人(Bot)交互能力是提升活跃度的关键。discord_interactions 库为 Flutter 开发者提供了一套完整的、遵循 Discord 官方协议的交互模型,涵盖了从 Slash Commands(斜杠命令)到 Webhook 签名验证的核心功能。本文将深入解析如何在 OpenHarmony(鸿蒙)环境下,结合鸿蒙的安全机制与网络特性,完美适配 discord_interactions 到你的鸿蒙应用中。 前言 随着鸿蒙系统(HarmonyOS)进入原生应用开发的新纪元,跨平台社交工具的适配需求日益增长。discord_interactions 作为一个纯