本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

文章目录

无意间发现了一个ZEEKLOG大神的人工智能教程,忍不住分享一下给大家。很通俗易懂,重点是还非常风趣幽默,像看小说一样。床送门放这了👉 http://blog.ZEEKLOG.net/jiangjunshow

开篇:你的显卡终于不用吃灰了

朋友,你电脑里那块 RTX 3060 是不是已经沦为"蒸汽平台专属显卡"了?每天除了打《黑神话:悟空》就是对着桌面发呆。别着急,这周阿里放了个大招——Qwen 3.5 MoE 全系列开源,尤其是那个 35B-A3B 的"显存刺客"版本,用 3B 的激活参数干 35B 参数的活儿,堪称"显存不够,智商来凑"的典范。

所谓 MoE(Mixture of Experts,混合专家模型),你可以理解为 AI 界的"会诊制度"。普通模型是个"全科医生",啥病都得看;MoE 则是"专家会诊台",来了病人先分给对应科室的专家,既保证了专业度,又不需要把所有专家都请到现场——省电省显存,聪明得很。

今天这篇就带你用 Ollama 一把梭,从下载到跑通 API,全程不用配 Python 环境,不用折腾 PyTorch,十分钟让你的本地大模型从" PPT 阶段"进入"生产环境"。


一、选型指南:你的显卡能跑哪个版本?

Qwen 3.5 这次发布堪称"全家桶式开卷",从手机能跑的 0.8B 到工作站专属的 35B,全给你安排明白了。但别一上来就冲着最大的下载,先看看你机箱里那位"煤气灶"的成色:

显存 4GB 以下(轻薄本/老显卡)

选 0.8B 或 2B 版本。这俩是"Lite 版",虽然脑子小点,但写个周报、翻译个文档完全够用,关键是 CPU 都能跑,风扇都不带转的。

显存 8GB(RTX 3060/4060 笔记本)

闭眼入 9B 版本。这是甜点级,中文能力对标早期 GPT-4,写代码、写文案一手抓,显存占用大概 6GB 左右,还能留点余量挂个微信。

显存 16GB 以上(RTX 4080/4090 富哥)

直接上 35B-A3B MoE。这个版本 total 参数 35B,但每次只激活 3B 参数,推理时显存占用和 7B 模型差不多,但智商直接对标 GPT-4o mini。用 llama.cpp 跑 Q4_K_M 量化版,24GB 显存能吃得消。

苹果 M 系列用户

恭喜你们,统一内存架构就是为 MoE 而生的。M3 Pro 以上机型跑 9B 版本流畅得跟原生应用似的,M3 Max 甚至可以试试 35B 版本。


二、Ollama 一键安装:比装微信还简单

别被那些"先装 CUDA、再配 PyTorch、最后编译 llama.cpp"的教程吓退,咱们用 Ollama——这工具堪称大模型界的"Docker Hub",一个命令行工具搞定所有环境。

Windows/macOS 用户:

直接去 ollama.com 下载安装包,双击、下一步、完成。安装完后右下角会出现个羊驼图标,说明服务已经跑起来了。

Linux 用户(Ubuntu/Debian):

一条命令搞定:

curl-fsSL https://ollama.com/install.sh |sh

装完后验证一下:

ollama --version

输出类似 ollama version 0.5.1 就算成功。

国内网络加速技巧:

如果下载慢,可以设置镜像源。在终端输入(Windows 用 PowerShell):

Windows PowerShell

$env:OLLAMA_HOST="0.0.0.0"

Linux/macOS

exportOLLAMA_HOST=0.0.0.0 

三、模型下载:挑个"媳妇"娶回家

Ollama 的模型库就是个"应用商店",咱们直接搜 qwen3.5。这里有个坑要注意:MoE 版本和普通版本的命名规则不一样,别下错了。

查看可用模型:

ollama pull qwen3.5:9b 

这条命令会开始下载 9B 版本。如果你要 MoE 版本,目前 Ollama 库中可能显示为 qwen3.5:35b 或类似的标签。下载时盯着终端看,速度取决于你的宽带,一般来说 9B 版本大概 5GB 左右,35B 量化版大约 20GB。

下载完成后测试:

ollama run qwen3.5:9b 

这时候你会进入交互模式,光标闪烁处直接打字:

用鲁迅的口吻评价一下程序员写代码不写注释

如果看到模型开始"之乎者也"地吐槽,说明部署成功。按 Ctrl+D 退出对话。


四、API 接口封装:让你的代码也能调用

光在终端聊天可不行,咱们得让 Python/Java 代码也能调用。Ollama 自带兼容 OpenAI 格式的 API,这就是"披着羊驼皮的 ChatGPT"。

启动 API 服务:

ollama serve 

这条命令会在后台挂起服务,默认监听 localhost:11434

Python 调用示例:

from openai import OpenAI # 初始化客户端,api_key 随便填,base_url 指向本地 client = OpenAI( base_url='http://localhost:11434/v1', api_key='ollama'# 本地部署不需要验证,但参数必须给)# 调用对话接口 response = client.chat.completions.create( model='qwen3.5:9b',# 必须和 ollama list 显示的完全一致 messages=[{'role':'system','content':'你是个毒舌但专业的编程助手'},{'role':'user','content':'帮我写个 Python 爬虫,爬取豆瓣电影 Top250'}], stream=True# 流式输出,打字机效果)# 处理流式响应for chunk in response:if chunk.choices[0].delta.content:print(chunk.choices[0].delta.content, end='', flush=True)

Java/Spring Boot 调用示例:

@RestControllerpublicclassAIController{@PostMapping("/chat")publicSseEmitterchat(@RequestBodyString message){SseEmitter emitter =newSseEmitter();WebClient client =WebClient.builder().baseUrl("http://localhost:11434").build();Map body =Map.of("model","qwen3.5:9b","messages",List.of(Map.of("role","user","content", message)),"stream",true); client.post().uri("/api/chat").bodyValue(body).retrieve().bodyToFlux(String.class).subscribe(data ->{try{ emitter.send(data);}catch(Exception e){ emitter.completeWithError(e);}}, emitter::completeWithError, emitter::complete);return emitter;}}

五、进阶玩法:开启"深度思考"模式

Qwen 3.5 有个隐藏技能——思考模式(Thinking Mode)。默认情况下,9B 及以下版本为了省算力是关闭的,但你可以手动开启,让模型像 o1 一样"深呼吸"再回答。

临时开启(单次对话):

ollama run qwen3.5:9b --chat-template-kwargs '{"enable_thinking":true}'

永久开启(修改 Modelfile):

先导出当前模型的配置:

ollama show qwen3.5:9b --modelfile> Modelfile 

编辑这个文件,在 FROM 行下面添加:

FROM qwen3.5:9b # 启用思考模式 PARAMETER temperature 0.7 SYSTEM 你是一个擅长深度推理的 AI 助手,回答前请先逐步思考 

然后创建新模型:

ollama create qwen3.5-thinking -f Modelfile ollama run qwen3.5-thinking 

这时候问它"证明一下哥德巴赫猜想",你会看到它先输出一堆 `` 标签包裹的思考过程,最后给出结论——虽然还是证不出来,但过程看着就很专业。


六、多模态实战:让 AI 看懂你的截图

如果你下载的是 Qwen3.5-VL 版本(视觉模型),它还能看懂图片。这个在写前端代码时特别有用——直接把 UI 设计稿截图扔给它,让它生成 HTML/CSS。

Python 多模态调用:

import base64 # 读取图片转 base64withopen("ui_design.png","rb")as f: image_base64 = base64.b64encode(f.read()).decode('utf-8') response = client.chat.completions.create( model='qwen3.5-vl:7b',# VL 版本 messages=[{"role":"user","content":[{"type":"text","text":"把这个设计稿转成 HTML+Tailwind CSS 代码"},{"type":"image_url","image_url":{"url":f"data:image/png;base64,{image_base64}"}}]}])

避坑指南:

图片别太大,建议压缩到 1024x1024 以下,不然显存会炸。如果显存不足,Ollama 会自动 fallback 到 CPU 模式,那时候速度就比 2G 网络还慢了。


七、性能调优:榨干最后一滴显存

1. 上下文长度控制

Qwen 3.5 支持 256K 上下文,但默认可能只开 4K。在 Modelfile 里加一行:

PARAMETER num_ctx 8192 

显存够的话可以开到 32K,写长篇小说续写都没问题。

2. GPU offload 调优

如果你用 llama.cpp 而非 Ollama,可以精细控制层数:

./llama-cli -m qwen3.5-9b-Q4_K_M.gguf \ --n-gpu-layers 35\-c8192\--temp0.7

--n-gpu-layers 35 表示把 35 层权重扔给显卡,剩下的 CPU 扛。数字越大显存占用越高,根据实际情况调。

3. 并发优化

默认 Ollama 只处理一个请求,想同时服务多个用户:

exportOLLAMA_NUM_PARALLEL=4exportOLLAMA_MAX_LOADED_MODELS=2 ollama serve 

八、生产环境部署:从玩具到工具

如果你要把这个部署到公司内网,别直接用 ollama run,得用 Docker 封装:

version:'3.8'services:ollama:image: ollama/ollama:latest volumes:- ./models:/root/.ollama ports:- 11434:11434deploy:resources:reservations:devices:-driver: nvidia count:1capabilities:[gpu]

配合 Open-WebUI 或者 Cherry Studio,你就能得到一个完全私有化、数据不出域的 ChatGPT 替代品。


结语:本地部署的文艺复兴

以前我们总说"本地部署大模型"是极客的玩具,又慢又笨。但 Qwen 3.5 MoE 架构的出现,加上 Ollama 这种"傻瓜式"工具,让这件事变得比配 Java 环境还简单。4GB 显存就能跑,断网也能用,数据还留在自己硬盘里——这对于处理合同、病历、内部文档的开发者来说,简直是刚需。

这周花十分钟搭起来,下周你的同事还在排队申请 GPT-4 API 额度的时候,你已经在本地跑完了一百份文档的总结。技术这玩意儿,有时候"快"就是"好",“本地"就是"自由”。

赶紧试试吧,别让显卡再闲置了。

Read more

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Harness Engineering工程化教程(非常详细),AI Agent复杂长任务从入门到精通,收藏这一篇就够了!

Views are my own. “Yet Another Chapter”,Generated by Google Lyria OpenAI 的一个团队在五个月内用 Codex 写了一百万行代码,三个工程师平均每天合并 3.5 个 PR,没有一行代码是工程师手写的。Anthropic 的 Claude Code 能连续工作数天构建完整应用。LangChain 的 Coding Agent 在 Terminal Bench 2.0 上从 52.8% 跃升至 66.5%,却只改了 harness,模型没动。 随着 Coding Agent 能力过去一段时间的突飞猛进,软件工程师的工作变了:从“

AI实践(3)Token与上下文窗口

AI实践(3)Token与上下文窗口

AI实践(3)Token与上下文窗口 Author: Once Day Date: 2026年3月2日 一位热衷于Linux学习和开发的菜鸟,试图谱写一场冒险之旅,也许终点只是一场白日梦… 漫漫长路,有人对你微笑过嘛… 全系列文章可参考专栏: AI实践成长_Once-Day的博客-ZEEKLOG博客 参考文章:Documentation - Claude API DocsOpenAI for developersPrompt Engineering GuidePrompt Engineering Guide: The Ultimate Guide to Generative AICompaction | OpenAI APIContext windows - Claude API DocsEffective context engineering for AI agents \ Anthropic大模型入门必知:一文搞懂Token概念,看完这篇终于懂了! -

通义灵码超全使用教程:从安装到实战,AI 编程效率拉满

通义灵码超全使用教程:从安装到实战,AI 编程效率拉满

前言 作为阿里云推出的智能编码助手,通义灵码凭借代码智能生成、智能问答、多文件批量修改、编程智能体等核心能力,能让开发者从重复编码中解放,专注于技术设计,目前百万开发者在用,企业端 AI 代码生成占比超 25%,研发效率平均提升 10%+lingma.aliyun.com。本文结合阿里云官方文档和实际实操经验,用通俗易懂的方式讲清通义灵码的安装、核心功能使用、实战技巧和常见问题解决,新手也能快速上手,让 AI 真正成为你的编程搭子! 一、通义灵码基础认知 1. 核心能力 通义灵码的核心能力围绕「提效」展开,四大核心模式覆盖编码全流程: * 代码补全:秒级生成行 / 函数级代码、单元测试,支持注释生成代码,跨文件感知上下文; * 智能问答:不用离开 IDE,解决编码难题、排查报错,还支持图片多模态问答(贴截图就能解问题); * 文件编辑:精准实现多文件批量修改,支持迭代和快照回滚,

AI驱动UI自动化框架Maestro:从环境搭建到实战Demo

AI驱动UI自动化框架Maestro:从环境搭建到实战Demo

一、为什么选择Maestro(AI增强版)? 在接触具体操作前,我们先搞清楚:为什么Maestro能成为当前安卓UI自动化的优选框架?传统自动化工具(如Appium、Espresso)需要依赖固定的控件定位符(ID、XPath),一旦UI迭代,脚本就会大量失效,且需手动添加sleep()处理延迟,维护成本极高。 而Maestro的AI增强能力恰好精准解决了这些痛点,核心优势如下: * AI智能控件识别:无需依赖ID/XPath,可通过自然语言描述(如“点击搜索按钮”)定位控件,自动适配不同屏幕分辨率和机型,UI轻微变化也能稳定识别。 * 动态容错与自动等待:内置AI驱动的延迟管理机制,自动识别页面加载、网络请求、动画渲染等场景,彻底告别硬编码的sleep(),兼顾测试效率与稳定性。 * 极简语法与极速迭代:采用声明式YAML语法,20行配置即可完成复杂流程测试;脚本无需编译,修改后实时生效,迭代效率提升数倍。 * 跨平台与全场景兼容:一套脚本可覆盖安卓、iOS双平台,完美适配原生应用、React Native、Flutter、WebView等多种开发架构。 * 轻量化部