OpenClaw 安全崩盘:史上最快 AI Agent 灾难潮

OpenClaw 安全崩盘:史上最快 AI Agent 灾难潮

OpenClaw 自 2026 年 1 月底迅速走红,我们也是对此关注,从其在GitHub star 的暴增,同时也引发了 AI Agent 历史上最密集、最迅猛的安全崩盘潮。截至 2026 年 3 月初,OpenClaw Exposure Watchboard(https://openclaw.allegro.earth/)持续显示 224,015 个公开可达活跃实例(分布于 2241 页,每页 100 条,最后导入时间仍为 2 月 3 日 18:08:53,未见明显下降趋势)。

这些实例中,大量处于 无认证 + 凭证已泄露 的高危状态,许多绑定主流云厂商(如 Baidu、Tencent、Oracle、Alibaba Cloud、Hostinger),部分 IP/ASN 甚至被标注关联数十个已知 APT 组织(如 Lazarus、Volt Typhoon、Sandworm、APT28/29/31/41、Mustang Panda 等)以及大量 CVE。这不是零星失误,而是能力爆炸 × 部署极易 × 默认安全缺失 共同酿成的系统性危机。2026 年 1–3 月已成为 AI 代理安全领域的“黑色教科书”时期。

主要安全事件时间线与类型

  1. 1 月下旬 – 供应链污染与恶意技能大规模爆发(ClawHavoc 战役)ClawHub(官方技能市场)被污染,数百个伪装成实用工具的恶意技能(如 Solana 钱包追踪、邮件总结)实际植入 info-stealer、Atomic Stealer(针对 macOS)、挖矿木马、后门等。数千开发者无意安装,导致密钥、凭证、持久化植入等连锁损害。
  2. 1 月 27–31 日 – 暴露实例激增与凭证大规模泄露扫描数据显示暴露实例从数千暴增至数万甚至更高(高峰期报道超过 13.5 万)。大量实例直接泄露 API keys、OAuth token、明文凭证、聊天记录等。典型成因:反向代理误配或直接将 localhost:18789 暴露公网。
  3. 1 月 29–31 日 – CVE-2026-25253(One-Click RCE,CVSS 8.8)核心缺陷:UI 通过 query string 接受 gatewayUrl 参数,自动建立 WebSocket 并发送认证 token,无需用户确认。攻击者仅需诱导访问恶意页面,即可窃取 token 并实现完整 Agent 接管(任意命令执行、文件读写、集成服务劫持)。修复版本:2026.1.29(后续仍有沙箱绕过补丁)。
  4. 1 月 31 日 – Moltbook 平台级灾难性泄露Moltbook(AI Agent 专用社交平台)Supabase 数据库 Row Level Security 被关闭 + API key 前端硬编码,导致 150 万+ API token、3.5 万邮箱、私信完全公开。攻击者可任意接管任意关联 Agent,引发多国政府级警告。
  5. 2 月下旬 – ClawJacked 高危攻击链(Oasis Security 披露)缺陷利用浏览器对 localhost WebSocket 的隐式信任 + 弱口令/无限制爆破。攻击路径:用户访问恶意网站 → JS 建立 localhost:18789 连接 → 暴力破解 gateway 密码 → 静默接管本地 Agent。无需插件、无需公网暴露、无需用户交互即可实现浏览器到本地 Agent 的提权。修复版本:2026.2.25 / 2026.2.26(24 小时内紧急响应)。
  6. 其他连锁漏洞(截至 3 月初)包括 workspace 路径嵌入信息泄露、macOS keychain 命令注入、多用户 session 越权、命令注入变种、日志投毒、SSRF、未签名 webhook 等。累计 6+ CVE,加上 ClawHavoc 与 Moltbook,形成完整的“漏洞 → 暴露 → 供应链 → 平台泄露”攻击链。

当前暴露态势快照

看板数据显示:活跃实例全部为 true,地理分布以美国、中国大陆、新加坡为主。高危特征突出:大量 Leaked creds(如腾讯、Oracle、Baidu 实例常见),关联 APT 标签密集(单条记录可列出 30+ APT 组),近期 CVE 引用频繁。即便是 auth=Yes 的实例,也常伴随 Clean/Leaked 混杂,表明认证配置不彻底。页面持续警告:“若这是你的部署,立即启用认证、移除公网暴露、打补丁。” 并推广 Vivgrid 等企业级安全方案。

事件影响与核心教训

个体开发者层面:密钥、文件、邮箱、日历、钱包被窃取已成为常见后果。 企业层面:供应链攻击、横向移动、机密外泄风险急剧上升。 生态层面:ClawHub 信任崩塌、Moltbook 成泄露温床,开源 AI Agent 市场安全信誉重创。 行业层面:直接催生 OWASP Agent Top 10 案例,暴露 Agentic AI 安全滞后于能力增长的巨大鸿沟。

立即行动建议

  • 自查:搜索本地/云端 18789 端口,或用 Shodan/Censys 查询自身 IP。
  • 隔离:关闭公网访问(防火墙、Cloudflare Tunnel 等)。
  • 升级:至少到 2026.2.26+(包含 ClawJacked 等修复)。
  • 加固:强制强认证 + HTTPS;容器化 + seccomp/AppArmor;最小权限(禁用 shell/exec 除非必要);ClawHub 技能逐个审计 + VirusTotal 扫描。
  • 监控:SIEM 规则捕获异常 WebSocket、python 进程异常行为;考虑 EDR 工具。
  • 长远:将 AI Agent 纳入零信任架构与 DevSecOps 流程,避免“先上线再安全”的致命习惯。

OpenClaw 的快速崛起与崩盘证明:当 AI 从“聊天”跃升到“执行”时,安全窗口从数月压缩到数天。暴露看板虽具争议,却已成为最有效的“公众羞耻”补丁加速器。希望 22 万+ 红点尽快变绿。

安全第一——爪子再锋利,也得先学会收回去。

Read more

前端CI/CD流程:自动化部署的正确打开方式

前端CI/CD流程:自动化部署的正确打开方式 毒舌时刻 CI/CD?听起来就像是前端工程师为了显得自己很专业而特意搞的一套复杂流程。你以为配置了CI/CD就能解决所有部署问题?别做梦了!到时候你会发现,CI/CD配置出错的概率比手动部署还高。 你以为随便找个CI/CD工具就能用?别天真了!不同的工具配置方式不同,坑也不同。比如Jenkins的配置文件就像是天书,GitLab CI的YAML语法也能让你崩溃。 为什么你需要这个 1. 自动化部署:CI/CD可以自动完成代码测试、构建和部署,减少手动操作,提高部署效率。 2. 减少人为错误:自动化部署可以避免手动部署时的人为错误,提高部署的可靠性。 3. 快速反馈:CI/CD可以在代码提交后立即进行测试和构建,及时发现问题,提供快速反馈。 4. 持续集成:CI/CD可以确保代码的持续集成,避免代码冲突和集成问题。 5. 环境一致性:CI/CD可以确保不同环境的配置一致,避免环境差异导致的问题。 反面教材

他到底喜欢我吗?赛博塔罗Java+前端实现,一键解答!

他到底喜欢我吗?赛博塔罗Java+前端实现,一键解答!

个人主页-爱因斯晨 文章专栏-赛博算命 原来我们在已往的赛博算命系列文章中的源码已经传到我的Github仓库中,有兴趣的家人们可以自己运行查看。 Github 源码中的一些不足,还恳请业界大佬们批评指正! 本文章的源码已经打包至资源绑定,仓库中也同步更新。 一、引言 在数字化浪潮席卷全球的当下,传统塔罗牌占卜这一古老智慧也迎来了新的表达形式 ——“赛博塔罗”。本文档旨在深入剖析塔罗牌的核心原理,并详细介绍如何利用 Java 语言实现一个简易的塔罗牌预测程序,展现传统神秘学与现代编程技术的融合。 二、塔罗牌原理 (一)集体潜意识与原型理论 瑞士心理学家卡尔・荣格提出的 “集体潜意识” 理论,为塔罗牌的运作提供了重要的心理学支撑。该理论认为,人类拥有超越个体经验的共同心理结构,其中蕴含着 “原型”—— 即普遍存在的、象征性的模式或形象。 塔罗牌的 22 张大阿尔卡那牌恰好与这些基本原型相对应。例如,“愚人” 代表着天真与新开始的原型,“魔术师” 象征着创造力与潜能的原型,“女祭司” 则体现了智慧与直觉的原型。这些原型是全人类共通的心理元素,这也正是不同文化背景的人都能

Web 可访问性最佳实践:构建人人可用的前端界面

Web 可访问性最佳实践:构建人人可用的前端界面 代码如诗,包容如画。让我们用可访问性的理念,构建出人人都能使用的前端界面。 什么是 Web 可访问性? Web 可访问性(Web Accessibility)是指网站、工具和技术能够被所有人使用,包括那些有 disabilities 的人。这意味着无论用户的能力如何,他们都应该能够感知、理解、导航和与 Web 内容交互。 为什么 Web 可访问性很重要? 1. 法律要求:许多国家和地区都有法律法规要求网站必须具有可访问性。 2. 扩大用户群体:约 15% 的世界人口生活有某种形式的 disability,可访问性可以让更多人使用你的网站。 3. SEO 优化:搜索引擎爬虫依赖于可访问性良好的网站结构。 4. 更好的用户体验:可访问性改进通常会使所有用户受益,而不仅仅是那些有 disabilities 的用户。 5. 社会责任:

AI 的提示词专栏:LLM(大语言模型)到底是怎么工作的?

AI 的提示词专栏:LLM(大语言模型)到底是怎么工作的?

AI 的提示词专栏:LLM(大语言模型)到底是怎么工作的? 本文以通俗语言拆解大语言模型(LLM)工作机制,先阐明其核心是基于概率预测下一个 token,依赖 Transformer 架构的注意力机制理解上下文,通过海量数据训练形成隐性语言知识图谱。接着解析其 “输入处理 — 编码 — 特征提取 — 解码 — 输出” 五大技术模块,详解 “预训练 — 微调 — 对齐” 三阶段训练流程,以 “写智能台灯产品需求文档” 为例拆解完整推理链路。还指出 LLM 存在事实性错误、逻辑推理薄弱等能力边界,对比其与人类智能在学习方式、推理逻辑等方面的本质区别,最后说明理解 LLM 工作原理对优化 Prompt、预判输出、高效用模的价值,助力读者理性认识和使用 LLM。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,