本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

本地离线部署AI大模型:OpenClaw + Ollama + Qwen3.5:cloud/Qwen3:0.6b 超详细教程(无需GPU)

前言

随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。

今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。

一、项目介绍

本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。

用到的工具:

    • Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型
    • Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
    • Qwen3:0.6b:阿里云开源的超轻量大语言模型,占用内存极低(1GB左右),适合8GB内存低配电脑,作为备选模型
    • OpenClaw:美观好用的本地AI可视化交互界面
    • 特点:免费、离线、隐私安全、低配置可运行

二、环境准备

    • 操作系统:Windows 10 / Windows 11
    • 内存:最低 8GB(推荐 16GB 更流畅)
    • 无需独立显卡,CPU 即可运行
    • 网络:仅在下载模型时需要,运行时可完全断网

三、详细安装步骤

  1. 安装 Ollama

Ollama 是运行模型的核心,安装非常简单。

  1. 打开官网:https://ollama.com/
  2. 点击 Download 下载 Windows 版本
  3. 双击安装,一路下一步
  4. 安装完成后,Ollama 会自动在后台运行

验证是否安装成功:

打开 CMD 或 PowerShell,输入:

ollama --version

出现版本号即成功。

  1. 使用 Ollama 下载并运行模型(Qwen3.5:cloud + Qwen3:0.6b)

我实际下载了两个模型,可根据自身电脑配置选择运行,优先推荐 Qwen3.5:cloud(效果更好),8GB内存低配电脑推荐 Qwen3:0.6b(更流畅)。

2.1 下载并运行 Qwen3.5:cloud(主力模型)

继续在命令行输入以下命令,
第一次运行会自动下载模型,下载完成后出现 >>> 即启动成功,可直接输入问题测试,适配低配电脑,运行流畅无压力。

ollama run qwen3.5:cloud

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:

你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明 Qwen3.5:cloud 部署成功。

2.2 下载并运行 Qwen3:0.6b(轻量备选模型)

若电脑内存较低(8GB及以下),运行 Qwen3.5:cloud 卡顿,可下载 Qwen3:0.6b 超轻量模型,命令行输入:

ollama run qwen3:0.6b

出现 >>> 表示模型已启动成功。

你可以直接在这里输入问题测试:
你好,介绍一下自己

在这里插入图片描述

模型能正常回答,说明部署成功一半。

  1. 安装 OpenClaw 可视化界面

OpenClaw 让你不用敲命令,直接像 ChatGPT 一样聊天。

  1. 打开 OpenClaw 发布页:https://github.com/sqzw-x/OpenClaw
  2. 找到最新版本下载 Windows 安装包
  3. 解压或安装后打开软件
  4. 连接 OpenClaw 与本地 Ollama

打开 OpenClaw 后:

  1. 右上角进入设置
  2. 模型选择:根据自身需求选择,主力推荐 qwen3.5:cloud,低配电脑选择 qwen3:0.6b
  3. Ollama 地址保持默认:

http://localhost:11434

  1. 保存设置

回到主界面,即可开始聊天。

四、效果展示

在这里插入图片描述


在这里插入图片描述
在这里插入图片描述
  1. 与AI对话的效果截图
  2. 任务管理器内存占用展示(打开任务管理器,切换到“性能-内存”页面,同步显示AI运行状态)
在这里插入图片描述


在这里插入图片描述

示例说明:

  1. OpenClaw 连接成功界面(截图包含设置页面、模型选择(可分别展示 qwen3.5:cloud 和 qwen3:0.6b 选择界面)、地址配置)
    • 模型启动速度:约 3~10 秒
    • 回答速度:流畅,可日常使用

五、常见问题与解决方法(非常重要)

    • 内存占用:Qwen3.5:cloud 约 2GB~4GB,Qwen3:0.6b 约 1GB~1.5GB
    • 模型启动速度:Qwen3.5:cloud 约 3~10 秒,Qwen3:0.6b 约 1~3 秒
    • 回答速度:均流畅可日常使用,Qwen3:0.6b 适配低配电脑,卡顿更少
  1. 模型下载特别慢

解决方法:

    • 先暂停下载重新开始,进度不会变
    • 或等待半夜下载(网络高峰期避开)
  1. OpenClaw 连接失败 / 连不上 127.0.0.1:11434

解决方法:

    • 确保 Ollama 正在后台运行(任务栏右下角查看 Ollama 图标)
    • 重启 Ollama:任务栏右键 Ollama → Restart
    • 检查地址是否为:http://localhost:11434(切勿多写/少写字符)
  1. 电脑卡顿、内存不足

解决方法:

    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具)
    • 关闭其他软件(尤其是浏览器、视频软件、后台下载工具),释放内存

解决方法:

切换/运行 Qwen3:0.6b 命令:

    • 切换至超轻量模型:若运行 Qwen3.5:cloud 卡顿,可切换到 Qwen3:0.6b 模型,占用内存极低,适配8GB及以下低配电脑

ollama run qwen3:0.6b

命令:

    • 使用更小参数模型(若 qwen3.5:cloud 卡顿):qwen3.5:4b
  1. OpenClaw 不显示模型(qwen3.5:cloud 或 qwen3:0.6b)

ollama run qwen3.5:4b

解决方法:

    • 重启 OpenClaw 软件,重新加载模型列表

解决方法:

    • 重新进入 OpenClaw 设置,根据自身需求选择 qwen3.5:cloud 或 qwen3:0.6b 模型并保存
    • 重启 OpenClaw 软件
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取的 qwen3.5:cloud 和 qwen3:0.6b 模型)
    • 确认 Ollama 已成功拉取模型(命令行输入 ollama list 可查看已拉取模型)

六、项目总结

通过 Ollama + Qwen3.5:cloud + OpenClaw,我们轻松实现了:

通过 Ollama + Qwen3.5:cloud(主力)+ Qwen3:0.6b(备选)+ OpenClaw,我们轻松实现了:

    • 本地离线运行大模型
    • 完全免费、无流量限制
    • 可视化界面,使用体验接近在线AI
    • 数据不上传,隐私百分百安全

适合人群:

    • 想学习AI本地部署的新手
    • 想学习AI本地部署的新手
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用;8GB内存低配电脑也能轻松适配(选择 Qwen3:0.6b 模型)
    • 注重隐私、不想数据上传云端
    • 学生、开发者、日常办公使用

Read more

人工智能与机器学习在软件工程中的应用:探索AL和ML技术如何改变软件的开发方式

作为一名正在深入学习软件工程的学生,近期我在完成课程项目时,对“人工智能与机器学习如何改变软件开发”这一主题进行了初步探索。随着调研的深入,我愈发意识到,AI与机器学习不再仅仅是软件所实现的功能特性,它们正在从根本上改变软件的生产方式。在此,我将自己的学习笔记与思考整理成文,希望能与社区的前辈和同学们交流探讨。鉴于本人学识尚浅,文中如有不当之处,恳请各位批评指正。 一、集成开发环境的智能化与软件质量保障的变革 传统的手工编码方式正在被AI赋能的新型开发工具所补充甚至取代,其中最为显著的便是集成开发环境的智能化转型。以GitHub Copilot、Amazon CodeWhisperer为代表的AI编程助手,已超越了传统的语法补全功能,它们能够基于上下文理解开发者的意图,实现从函数体自动补全到基于自然语言注释的代码生成,这种能力催生了“意图驱动开发”的雏形,开发者越来越多地将精力从语法细节转移到逻辑审查与架构设计上,人与机器的协作关系正在被重新定义。与此同时,在软件质量保障领域,机器学习技术的引入使得测试与缺陷预测变得更加精准和具有前瞻性,机器学习模型能够分析代码路径和执行逻辑,自

By Ne0inhk
AI的提示词专栏:Prompt 编写的日志分析与关键字聚类

AI的提示词专栏:Prompt 编写的日志分析与关键字聚类

AI的提示词专栏:Prompt 编写的日志分析与关键字聚类 本文围绕 Prompt 在日志分析与关键字聚类中的应用展开,先阐述该技术的行业价值,指出其可解决海量日志人工处理效率低、格式混乱、关键字关联分析缺失等痛点。接着介绍日志类型、关键字聚类维度等核心概念,随后详细给出日志分析与关键字聚类类 Prompt 的通用编写框架,搭配运维、产品等不同场景的实战示例与技巧解析。还总结了 Prompt 编写的常见误区及避坑指南,提供结合 ELK Stack、Python 等工具的高级实战方案,最后总结核心原则并给出后续学习建议,为读者提供从基础到进阶的完整 Prompt 应用指导。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触 AI 的新手,还是有一定基础想提升的人,都能在这里找到合适的内容。从最基础的工具操作方法,到背后深层的技术原理,专栏都有讲解,还搭配了实例教程和实战案例。这些内容能帮助学习者一步步搭建完整的

By Ne0inhk
AI工具泛滥时代,为什么“能力“越来越不值钱?

AI工具泛滥时代,为什么“能力“越来越不值钱?

文章目录 * 一、一个荒诞的现象:工具民主化与机会不平等 * 二、三个被误读的AI创业神话 * 三、AI创作者的真正壁垒:从"工具使用者"到"商业闭环构建者" * 四、给新手的实战建议:从0到1的行动清单 * 五、关于《脉向AI》栏目 * 六、适合谁看? 一、一个荒诞的现象:工具民主化与机会不平等 2025被称为"AI应用元年",但一个诡异的分化正在发生。 一方面,AI工具从未如此普及。ChatGPT、Midjourney、Claude、Sora、可灵、即梦……每个月都有新的"生产力神器"登上热搜。知识付费市场上,“AI副业课”" prompt工程&

By Ne0inhk
从高原到云端:一个青海少年的AI农业创业之路

从高原到云端:一个青海少年的AI农业创业之路

“我曾翻越二十公里山路去上学,如今,我的代码正飞越万亩农田。”   一、高原的孩子,心里装着整个世界   我出生在青海的一座山村。村子不通公交,家到镇上中学要走两个多小时——二十余公里的崎岖山路,雨天泥泞,冬天结冰。书包里除了课本,还有母亲塞进去的馍馍和咸菜。   但山再高,也挡不住一颗想看世界的心。   从小,我痴迷历史与文学。《史记》里那些金戈铁马的故事,《红楼梦》中细腻入微的人情冷暖,让我在煤油灯下读到深夜。我内心敏感,常因一片云影掠过麦田、一声鹰啸划破长空而思绪万千。那时的我,以为人生只有两条路:要么走出高原,要么被高原埋没。     直到村里通了网。   那一年,我15岁。第一次用手机连上4G信号,点开一个叫“Python教程”的视频,从此命运悄然转向。   二、代码,是我翻山越岭的新脚力   高中三年,我白天上课,晚上自学编程。没有电脑,就用二手安卓机敲代码;没有老师,就靠B站、GitHub和Stack Overflow。

By Ne0inhk