谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

一只"小龙虾"掀起的开源风暴

2026 年开年,AI 圈被一只"小龙虾"搅得天翻地覆。

这只"小龙虾"最初叫 Clawdbot,是个开源的个人 AI 助手项目。创始人 Peter Steinberger 可能没想到,自己业余搞的小工具会在几天内冲到 GitHub 热榜第一,Star 数疯狂飙升到 7 万以上。更没想到的是,Anthropic 的一纸律师函直接砸了过来——理由是"Clawd"和"Claude"读音太像,涉嫌商标侵权。

于是,短短 72 小时内,项目经历了 Clawdbot → Moltbot → OpenClaw 的两次改名风波。Peter 在 X 上自嘲:“Same lobster soul, new shell”(同样的龙虾灵魂,换了一身新壳)。这戏剧性的一幕,反而让 OpenClaw 的热度更加失控,Star 数很快突破 10 万大关。

为什么一只"小龙虾"能让全球开发者如此疯狂?答案很简单:它代表了 AI 从"聊天工具"向"数字员工"的质变。而今天,当我们把 OpenClaw 与阿里刚开源的 Qwen3.5 系列模型结合,这种质变正在产生核聚变般的能量。

OpenClaw 到底是什么?你的 24 小时私人助理

想象一下,你有个私人助理,不用发工资,24 小时待命,能直接操作你的电脑,还能通过微信、飞书、Telegram 随时响应你的指令。这就是 OpenClaw 的核心价值。

它不是一个简单的聊天机器人,而是一个 AI Agent 网关。你可以把它理解成一座桥梁,连接着大语言模型和你的数字生活:

  • 多平台无缝接入:不需要下载新 APP,直接在常用的聊天软件里 @它就行。支持 WhatsApp、Telegram、Slack、Discord、飞书、钉钉等 10 余种平台。想象一下,你在地铁上用手机发条消息,家里的电脑就开始自动整理桌面文件、生成报表、甚至修复代码 Bug。
  • 持久化记忆:传统的 ChatGPT 对话一关闭就失忆,OpenClaw 却能记住你的习惯、偏好和工作流程。它会在本地存储记忆,越用越懂你。
  • 主动执行能力:不只是被动问答,它能根据日历事件主动提醒你,定时生成早报,甚至监控服务器状态并在异常时发送警报。这就像《钢铁侠》里的贾维斯,真正做到了"自动运行"。
  • 技能系统(Skills):通过安装不同的 Skill,你可以给 AI 添加各种超能力——查天气、发邮件、操作浏览器、读写本地文件、控制智能家居。社区已经贡献了 500+ 个 Skill,从自动化的 PR 代码审查到加密货币监控应有尽有。

Qwen3.5:阿里开源的"性能怪兽"

如果说 OpenClaw 是骨架,那 Qwen3.5 就是它的大脑。2026 年 2 月,阿里通义千问团队发布的 Qwen3.5 系列,堪称开源模型界的"降维打击"。

  • 混合架构带来的性能跃升:Qwen3.5-397B-A17B 采用混合专家(MoE)架构,总参数量 3970 亿,但每次推理只激活 170 亿参数。这就像是一个拥有 3970 名专家的公司,遇到问题只派最合适的 170 人处理,既聪明又省电。
  • 小模型逆袭大模型:更令人震撼的是 Qwen3.5-35B-A3B,仅有 35 亿激活参数,性能却全面超越了 7 个月前发布的 2350 亿参数旗舰模型 Qwen3-235B-A22B。这证明了模型的智能不在于参数堆砌,而在于架构精巧。
  • 原生多模态:不同于传统文本模型,Qwen3.5 在视觉和文本混合 Token 上预训练,天生就懂看图说话、视频理解。你可以扔给它一张截图,让它直接提取文字、分析图表、甚至根据 UI 设计图生成前端代码。
  • 消费级显卡可部署:Qwen3.5-27B 作为 Dense 模型(非 MoE),能在单张 GPU 上流畅运行。这意味着你不需要价值十几万的 A100 集群,几千块的 RTX 4090 就能在家部署一个顶级 AI 大脑。

王炸组合:当 OpenClaw 遇上 Qwen3.5

把 OpenClaw 和 Qwen3.5 结合在一起,会发生什么样的化学反应?答案是:一个完全自主可控、数据隐私绝对安全、且智商超群的本地 AI 助手。

场景一:零代码自动化办公

早上 9 点,你刚到公司,OpenClaw 已经在飞书上给你发了今日待办:“检测到昨晚客户发来的邮件,已自动分类;GitHub 上有 3 个 PR 需要你 Review,我已初步筛选出 1 个可能存在内存泄漏问题;今日会议已整理进日历。”

这一切的背后,是 Qwen3.5-122B-A10B 在理解邮件内容、分析代码差异、识别会议意图,而 OpenClaw 负责调用邮件客户端、GitHub API、日历接口完成实际操作。

场景二:私有化知识库问答

把公司内部的 10 万份文档喂给 OpenClaw,它利用 Qwen3.5 的长上下文能力(支持 100 万 Token),能在几秒内从海量文档中找到答案,并生成带引用来源的报告。所有数据都跑在本地服务器,绝不会上传到第三方云端,彻底解决隐私焦虑。

场景三:7×24 小时智能运维

配置好监控 Skill 后,OpenClaw 会每隔 5 分钟检查服务器状态。一旦检测到异常日志,立即调用 Qwen3.5 分析错误原因,尝试自动修复,并在修复失败时通过 Telegram 通知值班工程师。整个过程无需人工干预,真正实现了"自愈式运维"。

手把手部署:从零搭建你的 AI 助手

说千道万不如动手一干。下面这套方案基于 Windows + WSL2 环境,完全使用开源工具,让你在一小时内跑通 OpenClaw + Qwen3.5。

第一步:准备 Qwen3.5 模型

最经济的选择是部署 Qwen3.5-35B-A3B,它在消费级显卡上就能跑得飞起。我们使用 vLLM 框架部署,这是目前吞吐量最高的推理方案。

创建 Python 环境:

conda create -n openclaw python=3.12-y conda activate openclaw 

安装 vLLM(支持 Qwen3.5 的最新版本):

pip install vllm --pre --extra-index-url https://wheels.vllm.ai/nightly 

从魔搭社区下载模型(国内速度更快):

pip install modelscope modelscope download Qwen/Qwen3.5-35B-A3B --local_dir ./qwen35 

创建配置文件 config.yaml

model: ./qwen35 served_model_name: qwen3.5-local host: 0.0.0.0 port:8000tensor-parallel-size:1gpu-memory-utilization:0.9max-model-len:32768enable-auto-tool-choice:truetool-call-parser: qwen 

启动服务:

vllm serve --config config.yaml 

看到 Uvicorn running on http://0.0.0.0:8000 就说明模型已就绪。

第二步:安装 OpenClaw

OpenClaw 基于 Node.js 开发,需要先安装 Node.js 22+。

安装 OpenClaw CLI:

npminstall-g openclaw@latest 

初始化配置(会引导你设置模型连接):

openclaw onboard --install-daemon 

在配置环节,选择"Custom OpenAI-compatible API",填入:

  • Base URL: http://localhost:8000/v1
  • API Key: sk-dummy(本地部署无需真实 Key)
  • Model: qwen3.5-local

第三步:接入常用通讯工具

以飞书为例,社区已经贡献了现成的插件:

安装飞书插件:

openclaw plugins install @m1heng-clawd/feishu 

在飞书开放平台创建自建应用,获取 App ID 和 App Secret,然后配置到 OpenClaw 中。搞定后,你就能在飞书里 @机器人发送指令,它会在你的电脑上执行并返回结果。

第四步:安装实用 Skills

# 安装文件管理 Skill clawhub install filesystem # 安装浏览器自动化 Skill clawhub install browser # 安装代码审查 Skill(适合开发者) clawhub install code-review 

避坑指南:安全防护与成本控制

虽然 OpenClaw + Qwen3.5 组合很强大,但有几个坑必须避开。

  • 权限控制是第一要务:OpenClaw 默认需要较高的系统权限才能操作文件和浏览器。建议在 Docker 容器中运行,或者至少使用非特权用户启动,避免它"手滑"删掉重要文件。Palo Alto Networks 的安全研究指出,这类 Agent 系统如果配置不当,确实存在被恶意利用的风险。
  • API 费用管理:如果你选择调用云端 Qwen3.5 API 而非本地部署,注意 Agent 会在后台进行大量工具调用,Token 消耗速度远超普通聊天。建议设置预算上限,或优先使用阿里云百炼的 Qwen3.5-Flash 版本,每百万 Token 输入仅需 0.2 元。
  • 模型选择的权衡:Qwen3.5-397B-A17B 虽然最强,但需要多卡并行才能跑得动。个人用户建议用 Qwen3.5-35B-A3B,智商在线且单卡可跑;如果只有消费级显卡(如 RTX 4070),选择 Qwen3.5-27B Dense 版本更合适。
  • 谨防假冒项目:由于 OpenClaw 多次改名(Clawdbot→Moltbot→OpenClaw),GitHub 上出现了大量抢注的假冒仓库,甚至有用旧名字发行加密货币的骗局。务必认准官方仓库 github.com/openclaw/openclaw,任何宣称发行代币的行为都是诈骗。

写在最后:AI 民主化的里程碑

OpenClaw 的爆火和 Qwen3.5 的开源,标志着 AI 正在从"巨头垄断"走向"全民普及"。过去,你要用 Claude Opus 或 GPT-4,必须按月交订阅费,数据还要上传到别人的服务器;今天,你可以用零代码成本,在自家电脑上部署一个智商不输顶级商业模型的 AI 助手,而且数据完全私有。

Peter Steinberger 在收到 Anthropic 律师函时一定很无奈,但开源社区的力量让这只"小龙虾"越变越强。国内云厂商也迅速跟进——阿里云、腾讯云都推出了 OpenClaw 的一键部署镜像,连 Mac Mini 都一度被抢货到断供。

这种趋势不可阻挡。当谷歌、Anthropic 等巨头试图用封闭生态守住护城河时,OpenClaw 和 Qwen3.5 代表的开源力量正在从底层瓦解围墙。正如 Peter 所说:“同样的龙虾灵魂,换一身新壳继续战斗。”

2026 年,或许将成为个人 AI 助手的元年。而你,完全可以成为这场变革的早期玩家——不需要昂贵的硬件,不需要深厚的 AI 背景,只需要一台电脑、一颗好奇心,和这篇文章的指引。

让我们一起,把 AI 的主动权拿回自己手中。

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

DeepSeek V4正式发布!与Gemini 3.1 Pro深度评测:中国开源力量与美国闭源巅峰的正面交锋

2026年3月第一周,中国AI圈期待已久的DeepSeek V4正式发布,与此前两周谷歌推出的Gemini 3.1 Pro形成正面交锋。这不仅是两款旗舰模型的同期竞技,更是中国开源力量与美国闭源巅峰的技术路线对决:DeepSeek V4以“原生多模态+国产芯片深度适配+极致成本控制”杀入战场,而Gemini 3.1 Pro则以“ARC-AGI-2 77.1%推理断层领先+三层思考模式+幻觉抗性跃升”巩固护城河。本文从基准测试、核心架构、多模态能力、成本策略四大维度进行深度技术拆解,为开发者和AI爱好者提供硬核参考。 国内用户可通过聚合镜像平台RskAi(ai.rsk.cn)直接体验Gemini 3.1 Pro,同时等待DeepSeek V4的镜像接入,形成双模型布局——一个应对深度复杂推理,一个满足高性价比国产需求。 一、发布动态:时间线与战略意图 关键信号:DeepSeek V4打破了AI行业长期惯例—

By Ne0inhk
【Git原理与使用】多人协作

【Git原理与使用】多人协作

多人协作 * 1.多人协作一 * 1.1准备工作 * 1.2协作开发 * 1.3将内容合并进master * 2.多人协作二 * 2.1协作开发 * 2.3将内容合并进master * 3.远程分支删除后,本地 git branch -a 依然能看到的解决办法 1.多人协作一 1.1准备工作 到目前为止对于Git提供给我们的大部分实用操作已经学的差不多了 * 基本完成 Git 的所有本地库的相关操作,git基本操作,分支理解,版本回退,冲突解决等等 * 申请码云账号,将远端信息clone到本地,以及推送和拉取 是时候干最重要的一件事情了,实现多人协作开发! * 目标:远端master分支下file.txt文件新增代码 “aaa”、“bbb” * 实现:由开发者1新增 “aaa”,由开发者2新增 “bbb” * 条件:

By Ne0inhk
OpenClaw+Kimi K2.5开源AI助手零门槛部署教程:本地私有化+远程控制+办公自动化全实操

OpenClaw+Kimi K2.5开源AI助手零门槛部署教程:本地私有化+远程控制+办公自动化全实操

一、前置准备(3分钟搞定,新手零门槛) 核心依赖清单(缺一不可) 1. 环境要求:Windows10+/macOS12+/Linux(Ubuntu22.04最佳),4G以上内存,无需独立GPU 2. 必备工具:Docker+Docker Compose(一键安装脚本已适配国内源)、Git(版本2.40+) 3. 密钥准备:Kimi Code API Key(火山方舟/CodingPlan获取,需实名认证,保存好密钥仅显示一次) 4. 辅助工具:浏览器(Chrome/Edge最新版)、IM工具(飞书/企业微信,用于远程控制) 快速获取Kimi K2.5 API Key(两步到位) 1.

By Ne0inhk
GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比

GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比

GitCode Notebook 昇腾 910B NPU 平台 ops-transformer 算子:全场景性能测试与验证及与原生 PyTorch 注意力的深度性能对比 前言 基于 GitCode Notebook 昇腾 910B + CANN 8.2.rc1 环境,聚焦 ops-transformer 算子的完整部署与性能验证,通过清晰的环境配置、依赖安装、多场景性能测试及与原生 PyTorch 注意力的对比实验,直观呈现其在低时延、高吞吐量及显存优化上的核心优势,为 LLM 训练 / 推理等 NLP 任务提供高效、可落地的算子应用参考 前提条件 开发环境准备:GitCode Notebook NPU 启动配置 1、GitCode启动NoteBook资源 计算类型:NPUCANN是昇腾 NPU设计的异构计算架构,

By Ne0inhk