谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

谷歌封杀也挡不住!OpenClaw+Qwen3.5,开源AI彻底疯了

文章目录

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

前言

一只"小龙虾"掀起的开源风暴

2026 年开年,AI 圈被一只"小龙虾"搅得天翻地覆。

这只"小龙虾"最初叫 Clawdbot,是个开源的个人 AI 助手项目。创始人 Peter Steinberger 可能没想到,自己业余搞的小工具会在几天内冲到 GitHub 热榜第一,Star 数疯狂飙升到 7 万以上。更没想到的是,Anthropic 的一纸律师函直接砸了过来——理由是"Clawd"和"Claude"读音太像,涉嫌商标侵权。

于是,短短 72 小时内,项目经历了 Clawdbot → Moltbot → OpenClaw 的两次改名风波。Peter 在 X 上自嘲:“Same lobster soul, new shell”(同样的龙虾灵魂,换了一身新壳)。这戏剧性的一幕,反而让 OpenClaw 的热度更加失控,Star 数很快突破 10 万大关。

为什么一只"小龙虾"能让全球开发者如此疯狂?答案很简单:它代表了 AI 从"聊天工具"向"数字员工"的质变。而今天,当我们把 OpenClaw 与阿里刚开源的 Qwen3.5 系列模型结合,这种质变正在产生核聚变般的能量。

OpenClaw 到底是什么?你的 24 小时私人助理

想象一下,你有个私人助理,不用发工资,24 小时待命,能直接操作你的电脑,还能通过微信、飞书、Telegram 随时响应你的指令。这就是 OpenClaw 的核心价值。

它不是一个简单的聊天机器人,而是一个 AI Agent 网关。你可以把它理解成一座桥梁,连接着大语言模型和你的数字生活:

  • 多平台无缝接入:不需要下载新 APP,直接在常用的聊天软件里 @它就行。支持 WhatsApp、Telegram、Slack、Discord、飞书、钉钉等 10 余种平台。想象一下,你在地铁上用手机发条消息,家里的电脑就开始自动整理桌面文件、生成报表、甚至修复代码 Bug。
  • 持久化记忆:传统的 ChatGPT 对话一关闭就失忆,OpenClaw 却能记住你的习惯、偏好和工作流程。它会在本地存储记忆,越用越懂你。
  • 主动执行能力:不只是被动问答,它能根据日历事件主动提醒你,定时生成早报,甚至监控服务器状态并在异常时发送警报。这就像《钢铁侠》里的贾维斯,真正做到了"自动运行"。
  • 技能系统(Skills):通过安装不同的 Skill,你可以给 AI 添加各种超能力——查天气、发邮件、操作浏览器、读写本地文件、控制智能家居。社区已经贡献了 500+ 个 Skill,从自动化的 PR 代码审查到加密货币监控应有尽有。

Qwen3.5:阿里开源的"性能怪兽"

如果说 OpenClaw 是骨架,那 Qwen3.5 就是它的大脑。2026 年 2 月,阿里通义千问团队发布的 Qwen3.5 系列,堪称开源模型界的"降维打击"。

  • 混合架构带来的性能跃升:Qwen3.5-397B-A17B 采用混合专家(MoE)架构,总参数量 3970 亿,但每次推理只激活 170 亿参数。这就像是一个拥有 3970 名专家的公司,遇到问题只派最合适的 170 人处理,既聪明又省电。
  • 小模型逆袭大模型:更令人震撼的是 Qwen3.5-35B-A3B,仅有 35 亿激活参数,性能却全面超越了 7 个月前发布的 2350 亿参数旗舰模型 Qwen3-235B-A22B。这证明了模型的智能不在于参数堆砌,而在于架构精巧。
  • 原生多模态:不同于传统文本模型,Qwen3.5 在视觉和文本混合 Token 上预训练,天生就懂看图说话、视频理解。你可以扔给它一张截图,让它直接提取文字、分析图表、甚至根据 UI 设计图生成前端代码。
  • 消费级显卡可部署:Qwen3.5-27B 作为 Dense 模型(非 MoE),能在单张 GPU 上流畅运行。这意味着你不需要价值十几万的 A100 集群,几千块的 RTX 4090 就能在家部署一个顶级 AI 大脑。

王炸组合:当 OpenClaw 遇上 Qwen3.5

把 OpenClaw 和 Qwen3.5 结合在一起,会发生什么样的化学反应?答案是:一个完全自主可控、数据隐私绝对安全、且智商超群的本地 AI 助手。

场景一:零代码自动化办公

早上 9 点,你刚到公司,OpenClaw 已经在飞书上给你发了今日待办:“检测到昨晚客户发来的邮件,已自动分类;GitHub 上有 3 个 PR 需要你 Review,我已初步筛选出 1 个可能存在内存泄漏问题;今日会议已整理进日历。”

这一切的背后,是 Qwen3.5-122B-A10B 在理解邮件内容、分析代码差异、识别会议意图,而 OpenClaw 负责调用邮件客户端、GitHub API、日历接口完成实际操作。

场景二:私有化知识库问答

把公司内部的 10 万份文档喂给 OpenClaw,它利用 Qwen3.5 的长上下文能力(支持 100 万 Token),能在几秒内从海量文档中找到答案,并生成带引用来源的报告。所有数据都跑在本地服务器,绝不会上传到第三方云端,彻底解决隐私焦虑。

场景三:7×24 小时智能运维

配置好监控 Skill 后,OpenClaw 会每隔 5 分钟检查服务器状态。一旦检测到异常日志,立即调用 Qwen3.5 分析错误原因,尝试自动修复,并在修复失败时通过 Telegram 通知值班工程师。整个过程无需人工干预,真正实现了"自愈式运维"。

手把手部署:从零搭建你的 AI 助手

说千道万不如动手一干。下面这套方案基于 Windows + WSL2 环境,完全使用开源工具,让你在一小时内跑通 OpenClaw + Qwen3.5。

第一步:准备 Qwen3.5 模型

最经济的选择是部署 Qwen3.5-35B-A3B,它在消费级显卡上就能跑得飞起。我们使用 vLLM 框架部署,这是目前吞吐量最高的推理方案。

创建 Python 环境:

conda create -n openclaw python=3.12-y conda activate openclaw 

安装 vLLM(支持 Qwen3.5 的最新版本):

pip install vllm --pre --extra-index-url https://wheels.vllm.ai/nightly 

从魔搭社区下载模型(国内速度更快):

pip install modelscope modelscope download Qwen/Qwen3.5-35B-A3B --local_dir ./qwen35 

创建配置文件 config.yaml

model: ./qwen35 served_model_name: qwen3.5-local host: 0.0.0.0 port:8000tensor-parallel-size:1gpu-memory-utilization:0.9max-model-len:32768enable-auto-tool-choice:truetool-call-parser: qwen 

启动服务:

vllm serve --config config.yaml 

看到 Uvicorn running on http://0.0.0.0:8000 就说明模型已就绪。

第二步:安装 OpenClaw

OpenClaw 基于 Node.js 开发,需要先安装 Node.js 22+。

安装 OpenClaw CLI:

npminstall-g openclaw@latest 

初始化配置(会引导你设置模型连接):

openclaw onboard --install-daemon 

在配置环节,选择"Custom OpenAI-compatible API",填入:

  • Base URL: http://localhost:8000/v1
  • API Key: sk-dummy(本地部署无需真实 Key)
  • Model: qwen3.5-local

第三步:接入常用通讯工具

以飞书为例,社区已经贡献了现成的插件:

安装飞书插件:

openclaw plugins install @m1heng-clawd/feishu 

在飞书开放平台创建自建应用,获取 App ID 和 App Secret,然后配置到 OpenClaw 中。搞定后,你就能在飞书里 @机器人发送指令,它会在你的电脑上执行并返回结果。

第四步:安装实用 Skills

# 安装文件管理 Skill clawhub install filesystem # 安装浏览器自动化 Skill clawhub install browser # 安装代码审查 Skill(适合开发者) clawhub install code-review 

避坑指南:安全防护与成本控制

虽然 OpenClaw + Qwen3.5 组合很强大,但有几个坑必须避开。

  • 权限控制是第一要务:OpenClaw 默认需要较高的系统权限才能操作文件和浏览器。建议在 Docker 容器中运行,或者至少使用非特权用户启动,避免它"手滑"删掉重要文件。Palo Alto Networks 的安全研究指出,这类 Agent 系统如果配置不当,确实存在被恶意利用的风险。
  • API 费用管理:如果你选择调用云端 Qwen3.5 API 而非本地部署,注意 Agent 会在后台进行大量工具调用,Token 消耗速度远超普通聊天。建议设置预算上限,或优先使用阿里云百炼的 Qwen3.5-Flash 版本,每百万 Token 输入仅需 0.2 元。
  • 模型选择的权衡:Qwen3.5-397B-A17B 虽然最强,但需要多卡并行才能跑得动。个人用户建议用 Qwen3.5-35B-A3B,智商在线且单卡可跑;如果只有消费级显卡(如 RTX 4070),选择 Qwen3.5-27B Dense 版本更合适。
  • 谨防假冒项目:由于 OpenClaw 多次改名(Clawdbot→Moltbot→OpenClaw),GitHub 上出现了大量抢注的假冒仓库,甚至有用旧名字发行加密货币的骗局。务必认准官方仓库 github.com/openclaw/openclaw,任何宣称发行代币的行为都是诈骗。

写在最后:AI 民主化的里程碑

OpenClaw 的爆火和 Qwen3.5 的开源,标志着 AI 正在从"巨头垄断"走向"全民普及"。过去,你要用 Claude Opus 或 GPT-4,必须按月交订阅费,数据还要上传到别人的服务器;今天,你可以用零代码成本,在自家电脑上部署一个智商不输顶级商业模型的 AI 助手,而且数据完全私有。

Peter Steinberger 在收到 Anthropic 律师函时一定很无奈,但开源社区的力量让这只"小龙虾"越变越强。国内云厂商也迅速跟进——阿里云、腾讯云都推出了 OpenClaw 的一键部署镜像,连 Mac Mini 都一度被抢货到断供。

这种趋势不可阻挡。当谷歌、Anthropic 等巨头试图用封闭生态守住护城河时,OpenClaw 和 Qwen3.5 代表的开源力量正在从底层瓦解围墙。正如 Peter 所说:“同样的龙虾灵魂,换一身新壳继续战斗。”

2026 年,或许将成为个人 AI 助手的元年。而你,完全可以成为这场变革的早期玩家——不需要昂贵的硬件,不需要深厚的 AI 背景,只需要一台电脑、一颗好奇心,和这篇文章的指引。

让我们一起,把 AI 的主动权拿回自己手中。

目前国内还是很缺AI人才的,希望更多人能真正加入到AI行业,共同促进行业进步,增强我国的AI竞争力。想要系统学习AI知识的朋友可以看看我精心打磨的教程 http://blog.ZEEKLOG.net/jiangjunshow,教程通俗易懂,高中生都能看懂,还有各种段子风趣幽默,从深度学习基础原理到各领域实战应用都有讲解,我22年的AI积累全在里面了。注意,教程仅限真正想入门AI的朋友,否则看看零散的博文就够了。

在这里插入图片描述

Read more

Gitee 分支管理规范

一、背景 统一团队内部的研发流程,降低团队的管理成本,避免研发过程中的人为失误而造成事故。同时,统一规范后,对于后面的一系列的开发过程由系统完成,从而提高研发效率。 二、分支定义 分支类型用途使用场景举例备注origin/test对应 test 环境保护分支 Protect Branch——origin/uat对应uat 环境保护分支 Protect Branch——origin/master保护分支 Protect Branch——无实际工作意义origin/release对应live环境保护分支 Protect Branch——feature 分支需求开发的分支对应Jira Taskfeature/{jira}-add-somethingbugfix 分支修复非需求测试发现的线上 bug对应Jira Bugbugfix/{jira}-fix-something跟随业务版本发布dev 分支在该分支上进行个人开发工作对应Jira sub-taskfeature/{jira}/{username}-add-something bugfix/{jira}/{username}-

By Ne0inhk
免费无限量API调用 GLM-5、Qwen3.5-398B 使用教程(AtomGit 限时开放)

免费无限量API调用 GLM-5、Qwen3.5-398B 使用教程(AtomGit 限时开放)

免费无限量API调用 GLM-5、Qwen3.5-398B大模型的 使用教程(AtomGit 限时开放) SEO关键词:GLM-5免费、Qwen3.5-398B免费API、AtomGit AI模型、免费大模型API、Qwen3.5接口调用、GLM5接口地址 最近在找一些可以免费调用的大模型 API时,意外发现一个平台开放了限时活动:AtomGit 提供 GLM-5、Qwen3.5 系列模型的免费调用,而且不限量。 https://atomgit.com/setting/points?type=invite&picode=RJFA9V4U&utm_source=ic_p 对于经常做 AI工具开发、自动化脚本、AI应用测试 的开发者来说,这种活动其实不太常见,所以简单记录一下注册和调用的方法,也顺便测试了一下实际情况。

By Ne0inhk
GitHub HTTPS 提交代码与个人访问令牌配置指南

GitHub HTTPS 提交代码与个人访问令牌配置指南

🧑 博主简介:ZEEKLOG博客专家,历代文学网(PC端可以访问:https://literature.sinhy.com/#/?__c=1000,移动端可微信小程序搜索“历代文学”)总架构师,15年工作经验,精通Java编程,高并发设计,Springboot和微服务,熟悉Linux,ESXI虚拟化以及云原生Docker和K8s,热衷于探索科技的边界,并将理论知识转化为实际应用。保持对新技术的好奇心,乐于分享所学,希望通过我的实践经历和见解,启发他人的创新思维。在这里,我希望能与志同道合的朋友交流探讨,共同进步,一起在技术的世界里不断学习成长。 技术合作请加本人wx(注明来自ZEEKLOG):foreast_sea 🔐 GitHub HTTPS 提交代码与个人访问令牌配置指南 除了 SSH 方式,GitHub 确实支持通过 个人访问令牌(Personal Access Token,简称 PAT) 来配合 HTTPS 协议进行身份验证和提交代码。

By Ne0inhk
全开源,自主可控!这款 AI + 无人机一体化平台,多行业刚需场景直接拉满!

全开源,自主可控!这款 AI + 无人机一体化平台,多行业刚需场景直接拉满!

项目地址: https://gitee.com/haishi-tech 引言 低空经济产业化加速推进,无人机行业应用却常被设备管控难、作业效率低、数据碎片化三大痛点卡脖子。专为专业场景打造的亥时无人机系统,以 “智能管理 + AI 监测 + 精准控制” 全流程闭环解决方案,打破行业应用壁垒,成为电力、安防、测绘等专业用户的共同选择! 核心优势:全面开源,成熟可控 系统简介 1. 一体化架构,告别零散适配烦恼亥时无人机系统深度集成设备管理、飞行控制、AI 监测与巡检业务四大核心模块,构建 “端 - 边 - 云” 全链路技术支撑。无需额外开发适配,从设备接入、飞行操控到数据分析、报告生成实现无缝衔接,彻底解决传统方案多系统割裂、数据不通的痛点,让作业流程更顺畅。 1. 2. AI 监测中台,让智能贯穿全流程

By Ne0inhk