本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

本周AI开发者必学:Qwen 3.5 MoE 本地部署,10分钟跑通完整版

文章目录

无意间发现了一个ZEEKLOG大神的人工智能教程,忍不住分享一下给大家。很通俗易懂,重点是还非常风趣幽默,像看小说一样。床送门放这了👉 http://blog.ZEEKLOG.net/jiangjunshow

开篇:你的显卡终于不用吃灰了

朋友,你电脑里那块 RTX 3060 是不是已经沦为"蒸汽平台专属显卡"了?每天除了打《黑神话:悟空》就是对着桌面发呆。别着急,这周阿里放了个大招——Qwen 3.5 MoE 全系列开源,尤其是那个 35B-A3B 的"显存刺客"版本,用 3B 的激活参数干 35B 参数的活儿,堪称"显存不够,智商来凑"的典范。

所谓 MoE(Mixture of Experts,混合专家模型),你可以理解为 AI 界的"会诊制度"。普通模型是个"全科医生",啥病都得看;MoE 则是"专家会诊台",来了病人先分给对应科室的专家,既保证了专业度,又不需要把所有专家都请到现场——省电省显存,聪明得很。

今天这篇就带你用 Ollama 一把梭,从下载到跑通 API,全程不用配 Python 环境,不用折腾 PyTorch,十分钟让你的本地大模型从" PPT 阶段"进入"生产环境"。


一、选型指南:你的显卡能跑哪个版本?

Qwen 3.5 这次发布堪称"全家桶式开卷",从手机能跑的 0.8B 到工作站专属的 35B,全给你安排明白了。但别一上来就冲着最大的下载,先看看你机箱里那位"煤气灶"的成色:

显存 4GB 以下(轻薄本/老显卡)

选 0.8B 或 2B 版本。这俩是"Lite 版",虽然脑子小点,但写个周报、翻译个文档完全够用,关键是 CPU 都能跑,风扇都不带转的。

显存 8GB(RTX 3060/4060 笔记本)

闭眼入 9B 版本。这是甜点级,中文能力对标早期 GPT-4,写代码、写文案一手抓,显存占用大概 6GB 左右,还能留点余量挂个微信。

显存 16GB 以上(RTX 4080/4090 富哥)

直接上 35B-A3B MoE。这个版本 total 参数 35B,但每次只激活 3B 参数,推理时显存占用和 7B 模型差不多,但智商直接对标 GPT-4o mini。用 llama.cpp 跑 Q4_K_M 量化版,24GB 显存能吃得消。

苹果 M 系列用户

恭喜你们,统一内存架构就是为 MoE 而生的。M3 Pro 以上机型跑 9B 版本流畅得跟原生应用似的,M3 Max 甚至可以试试 35B 版本。


二、Ollama 一键安装:比装微信还简单

别被那些"先装 CUDA、再配 PyTorch、最后编译 llama.cpp"的教程吓退,咱们用 Ollama——这工具堪称大模型界的"Docker Hub",一个命令行工具搞定所有环境。

Windows/macOS 用户:

直接去 ollama.com 下载安装包,双击、下一步、完成。安装完后右下角会出现个羊驼图标,说明服务已经跑起来了。

Linux 用户(Ubuntu/Debian):

一条命令搞定:

curl-fsSL https://ollama.com/install.sh |sh

装完后验证一下:

ollama --version

输出类似 ollama version 0.5.1 就算成功。

国内网络加速技巧:

如果下载慢,可以设置镜像源。在终端输入(Windows 用 PowerShell):

Windows PowerShell

$env:OLLAMA_HOST="0.0.0.0"

Linux/macOS

exportOLLAMA_HOST=0.0.0.0 

三、模型下载:挑个"媳妇"娶回家

Ollama 的模型库就是个"应用商店",咱们直接搜 qwen3.5。这里有个坑要注意:MoE 版本和普通版本的命名规则不一样,别下错了。

查看可用模型:

ollama pull qwen3.5:9b 

这条命令会开始下载 9B 版本。如果你要 MoE 版本,目前 Ollama 库中可能显示为 qwen3.5:35b 或类似的标签。下载时盯着终端看,速度取决于你的宽带,一般来说 9B 版本大概 5GB 左右,35B 量化版大约 20GB。

下载完成后测试:

ollama run qwen3.5:9b 

这时候你会进入交互模式,光标闪烁处直接打字:

用鲁迅的口吻评价一下程序员写代码不写注释

如果看到模型开始"之乎者也"地吐槽,说明部署成功。按 Ctrl+D 退出对话。


四、API 接口封装:让你的代码也能调用

光在终端聊天可不行,咱们得让 Python/Java 代码也能调用。Ollama 自带兼容 OpenAI 格式的 API,这就是"披着羊驼皮的 ChatGPT"。

启动 API 服务:

ollama serve 

这条命令会在后台挂起服务,默认监听 localhost:11434

Python 调用示例:

from openai import OpenAI # 初始化客户端,api_key 随便填,base_url 指向本地 client = OpenAI( base_url='http://localhost:11434/v1', api_key='ollama'# 本地部署不需要验证,但参数必须给)# 调用对话接口 response = client.chat.completions.create( model='qwen3.5:9b',# 必须和 ollama list 显示的完全一致 messages=[{'role':'system','content':'你是个毒舌但专业的编程助手'},{'role':'user','content':'帮我写个 Python 爬虫,爬取豆瓣电影 Top250'}], stream=True# 流式输出,打字机效果)# 处理流式响应for chunk in response:if chunk.choices[0].delta.content:print(chunk.choices[0].delta.content, end='', flush=True)

Java/Spring Boot 调用示例:

@RestControllerpublicclassAIController{@PostMapping("/chat")publicSseEmitterchat(@RequestBodyString message){SseEmitter emitter =newSseEmitter();WebClient client =WebClient.builder().baseUrl("http://localhost:11434").build();Map body =Map.of("model","qwen3.5:9b","messages",List.of(Map.of("role","user","content", message)),"stream",true); client.post().uri("/api/chat").bodyValue(body).retrieve().bodyToFlux(String.class).subscribe(data ->{try{ emitter.send(data);}catch(Exception e){ emitter.completeWithError(e);}}, emitter::completeWithError, emitter::complete);return emitter;}}

五、进阶玩法:开启"深度思考"模式

Qwen 3.5 有个隐藏技能——思考模式(Thinking Mode)。默认情况下,9B 及以下版本为了省算力是关闭的,但你可以手动开启,让模型像 o1 一样"深呼吸"再回答。

临时开启(单次对话):

ollama run qwen3.5:9b --chat-template-kwargs '{"enable_thinking":true}'

永久开启(修改 Modelfile):

先导出当前模型的配置:

ollama show qwen3.5:9b --modelfile> Modelfile 

编辑这个文件,在 FROM 行下面添加:

FROM qwen3.5:9b # 启用思考模式 PARAMETER temperature 0.7 SYSTEM 你是一个擅长深度推理的 AI 助手,回答前请先逐步思考 

然后创建新模型:

ollama create qwen3.5-thinking -f Modelfile ollama run qwen3.5-thinking 

这时候问它"证明一下哥德巴赫猜想",你会看到它先输出一堆 `` 标签包裹的思考过程,最后给出结论——虽然还是证不出来,但过程看着就很专业。


六、多模态实战:让 AI 看懂你的截图

如果你下载的是 Qwen3.5-VL 版本(视觉模型),它还能看懂图片。这个在写前端代码时特别有用——直接把 UI 设计稿截图扔给它,让它生成 HTML/CSS。

Python 多模态调用:

import base64 # 读取图片转 base64withopen("ui_design.png","rb")as f: image_base64 = base64.b64encode(f.read()).decode('utf-8') response = client.chat.completions.create( model='qwen3.5-vl:7b',# VL 版本 messages=[{"role":"user","content":[{"type":"text","text":"把这个设计稿转成 HTML+Tailwind CSS 代码"},{"type":"image_url","image_url":{"url":f"data:image/png;base64,{image_base64}"}}]}])

避坑指南:

图片别太大,建议压缩到 1024x1024 以下,不然显存会炸。如果显存不足,Ollama 会自动 fallback 到 CPU 模式,那时候速度就比 2G 网络还慢了。


七、性能调优:榨干最后一滴显存

1. 上下文长度控制

Qwen 3.5 支持 256K 上下文,但默认可能只开 4K。在 Modelfile 里加一行:

PARAMETER num_ctx 8192 

显存够的话可以开到 32K,写长篇小说续写都没问题。

2. GPU offload 调优

如果你用 llama.cpp 而非 Ollama,可以精细控制层数:

./llama-cli -m qwen3.5-9b-Q4_K_M.gguf \ --n-gpu-layers 35\-c8192\--temp0.7

--n-gpu-layers 35 表示把 35 层权重扔给显卡,剩下的 CPU 扛。数字越大显存占用越高,根据实际情况调。

3. 并发优化

默认 Ollama 只处理一个请求,想同时服务多个用户:

exportOLLAMA_NUM_PARALLEL=4exportOLLAMA_MAX_LOADED_MODELS=2 ollama serve 

八、生产环境部署:从玩具到工具

如果你要把这个部署到公司内网,别直接用 ollama run,得用 Docker 封装:

version:'3.8'services:ollama:image: ollama/ollama:latest volumes:- ./models:/root/.ollama ports:- 11434:11434deploy:resources:reservations:devices:-driver: nvidia count:1capabilities:[gpu]

配合 Open-WebUI 或者 Cherry Studio,你就能得到一个完全私有化、数据不出域的 ChatGPT 替代品。


结语:本地部署的文艺复兴

以前我们总说"本地部署大模型"是极客的玩具,又慢又笨。但 Qwen 3.5 MoE 架构的出现,加上 Ollama 这种"傻瓜式"工具,让这件事变得比配 Java 环境还简单。4GB 显存就能跑,断网也能用,数据还留在自己硬盘里——这对于处理合同、病历、内部文档的开发者来说,简直是刚需。

这周花十分钟搭起来,下周你的同事还在排队申请 GPT-4 API 额度的时候,你已经在本地跑完了一百份文档的总结。技术这玩意儿,有时候"快"就是"好",“本地"就是"自由”。

赶紧试试吧,别让显卡再闲置了。

Read more

2026 AI大模型实战:零基础玩转当下最火的AIGC

哈喽宝子们,2026年的AI大模型赛道简直卷出了新高度,中关村论坛上昆仑万维发布的Matrix-Game 3.0、SkyReels V4、Mureka V9三大世界级模型直接把全模态AIGC推上了新风口,而且昆仑天工旗下的SkyText、SkyCode等多款模型还开放了开源API,普通人也能轻松玩转AI大模型开发了。 一、当下 AI 大模型核心热点:人人都能做 AI 开发 1.全模态成主流:昆仑万维的 SkyReels V4 视频大模型实现音画一体生成、Mureka V9 音乐大模型支持创作意图精准落地,AI 从单一文本生成进入文本 / 图像 / 音频 / 视频全模态创作时代; 2.开源 API 全面开放:昆仑天工的 SkyText(文本生成)、SkyCode(代码生成)等模型开源,无需自建大模型,通过简单 API 就能实现商用级 AI 功能; 3.

2026 年 AI 编程工具大横评:Cursor vs Claude Code vs Windsurf vs Copilot,到底谁才是效率之王?

本文从一个全栈开发者的实际使用角度出发,对 2026 年最主流的四款 AI 编程工具进行深度对比。不吹不黑,用真实体验说话。 写在前面 2026 年,AI 编程工具已经从"锦上添花"变成了"不可或缺"。如果你还在用 VS Code 裸写代码,那你的效率可能只有隔壁工位同事的一半。 但问题来了——市面上的 AI 编程工具太多了。Cursor、Claude Code、Windsurf、GitHub Copilot… 每个都说自己最强。 我在过去 3 个月里深度使用了这四款工具,今天就来一次全面横评,帮你省下「逐个试用」的时间。 一、选手介绍 在开始对比之前,先简单认识一下这四位选手: 工具类型开发商一句话定位CursorAI-first IDEAnysphere为 AI

从零开始:学生与教育工作者如何免费解锁GitHub Copilot的全套能力

学生与教育工作者如何零成本解锁GitHub Copilot的完整指南 1. 教育认证:开启免费Copilot之旅的关键步骤 对于在校学生和教师而言,GitHub提供了一条专属的绿色通道。通过教育认证,你可以完全免费获得Copilot的专业级代码辅助功能,无需经历60天试用期的繁琐流程。这个认证过程虽然需要一些耐心,但绝对值得投入时间。 教育认证的核心在于验证你的学术身份真实性。GitHub会要求你提供以下材料之一: * 学生身份验证:有效的学生证、在学证明或学信网认证报告 * 教师身份验证:教师资格证、工作证或学校官方邮箱 重要提示:使用学校邮箱(.edu或学校专属域名)能大幅提升认证通过率。如果材料非英文,建议附上简单翻译说明。 认证流程中的常见陷阱包括: 1. 上传的证件照片模糊不清 2. 证件有效期信息缺失 3. 使用非官方邮箱提交申请 4. 网络IP地址与学校地理位置不符 我曾帮助三位同学完成认证,发现下午3-5点(美国西部时间)提交的申请通常能在24小时内获得回复,这可能与GitHub审核团队的工作时段有关。 2. PyCharm环境下的Co

2026传媒行业剧变前夜:Agent将成新入口,AIGC引爆内容“核聚变

2026传媒行业剧变前夜:Agent将成新入口,AIGC引爆内容“核聚变” 当AI不再只是工具,而是接管你的意图、重塑你看到的世界时,传媒互联网的底层逻辑正在被彻底改写。 最近,一份来自信达证券的《传媒行业2026年度策略报告》在圈内引起了不小的震动。报告标题直指核心——“Agent定义入口,AIGC重塑供给”。 这十二个字,精准地描绘了AI从“技术基建期”迈向“应用深水区”后,传媒互联网行业即将迎来的双重剧变。今天,我们就来深度拆解这份报告,看看2026年,我们的数字生活将如何被重新定义。 一、 入口革命:从“点击”到“对话”,Agent正在“架空”App 互联网的每一个代际,都伴随着超级入口的更迭:PC互联网时代是搜索和浏览器,移动互联网时代是超级App。 那么,AI时代的新入口是什么?报告给出了明确的答案:AI Agent(智能体)。 这不仅仅是技术升级,更是人机交互的代际跃迁。我们正从基于过程的GUI(图形用户界面),进化到基于结果的IUI(