OpenClaw 大更新:支持 GPT-5.4、记忆热插拔,GitHub Star 突破 28 万

OpenClaw 大更新:支持 GPT-5.4、记忆热插拔,GitHub Star 突破 28 万

AI Agent 框架 OpenClaw 上周日发布 2026.3.7 版本更新,最受关注的变化之一,是正式加入对 GPT-5.4 的支持。与此同时,新版本还带来了 记忆系统热插拔(Hot-Swappable Memory)、Context Engine 插件体系、持久化频道绑定 等关键能力,并在模型生态、搜索工具链以及安全机制方面进行了系统升级。

对于越来越多正在尝试部署 AI Agent 的团队来说,这一版本的意义不只是功能更新,更像是一次 架构层级的升级

一、插件化上下文引擎:突破上下文窗口限制

此次更新最核心的变化之一,是引入 Context Engine 插件接口

新的插件体系提供完整的生命周期钩子,并通过基于插槽的注册表与配置驱动解析机制,使开发者可以接入不同的上下文管理策略。为了兼容旧行为,OpenClaw 同时加入了 LegacyContextEngine 包装器,在未配置插件时仍保持原有的上下文压缩逻辑。

这一机制让类似 lossless-claw 的插件能够实现新的上下文管理方式,而无需修改核心框架。

技术层面上,插件运行环境还通过 AsyncLocalStorage 提供作用域隔离的子智能体运行时,并新增 sessions.get 网关方法,使多智能体协作的上下文管理更加稳定。

简单来说,这一设计让开发者可以自由接入:

  • RAG(检索增强生成)
  • 知识图谱折叠
  • 无损上下文压缩算法

从而突破传统大模型 上下文窗口 的限制,为 AI Agent 的长期运行提供基础设施。

二、记忆系统支持热插拔

新版本还引入了 Hot-Swappable Memory(记忆热插拔) 机制。

在传统 Agent 架构中,记忆系统通常是框架内部固定的一部分。而在 OpenClaw 新版本中,开发者可以在不重启系统的情况下动态替换或升级记忆模块。

这意味着团队可以根据业务需求自由切换不同的记忆策略,例如:

  • 短期上下文记忆
  • 长期知识库
  • RAG 检索存储
  • 向量数据库

这种设计大幅提升了 Agent 在复杂业务场景中的灵活性,也让系统更接近 可扩展的智能体操作系统架构

三、持久化频道绑定:让 Agent 真正“常驻”

在协作场景中,OpenClaw 进一步强化了 持久化通信能力

新版本新增了 Discord 频道与 Telegram 话题的持久化绑定机制。绑定信息将被存储并自动恢复,即使服务重启,Agent 也能继续在原有线程中工作。

在 Telegram 生态中,系统还新增了多项功能:

  • 支持 /acp spawn 创建话题绑定
  • 支持 --thread here | auto 自动绑定
  • 后续消息可自动路由到对应 ACP 会话
  • 新增审批按钮与绑定确认提示

此外,在论坛组或私聊话题中,还可以为不同话题设置独立 agentId,使特定讨论线程绑定专用智能体,并拥有隔离的上下文记忆。

这意味着企业团队可以让不同的 Agent 常驻在不同部门群组中,持续处理任务并保留历史上下文。

四、工具链与模型生态优化

在工具链方面,OpenClaw 2026.3.7 对 Web 搜索工具进行了重构,并升级了搜索供应商接口。

例如原有 Perplexity AI 的接口被替换为新的 Search API,支持结构化搜索结果,并增加语言、地区以及时间过滤条件,从而提升信息获取的精确度。

新版本还原生支持 Gemini 系列中的 gemini-3.1-flash-lite-preview 模型,并提供:

  • 模型 ID 正规化
  • 默认别名
  • 图像理解支持
  • Gemini CLI 向前兼容

在本地模型生态方面,OpenClaw 进一步优化了与 Ollama 的兼容性。

新版系统可以正确隔离模型在 Thinking / Reasoning 阶段 的流式输出,不再将内部推理过程误当成最终回复输出。

同时,Docker 部署也得到优化。用户可以通过 OPENCLAW_EXTENSIONS 预打包扩展依赖,从而实现更快的容器启动速度以及更高的环境可复现性。

五、网关认证机制迎来重大调整

值得注意的是,此次更新还对 网关认证模式进行了重要调整。

如果同时配置:

  • gateway.auth.token
  • gateway.auth.password

现在必须显式指定 gateway.auth.mode 为 token 或 password。否则在升级后可能导致系统启动、配对或 TUI 失败。

对于现有部署用户来说,这一点需要特别留意。

六、性能测试:上下文越长优势越明显

OOLONG 基准测试中,使用相同模型时,搭载 lossless-claw 的新版 OpenClaw 得分为 74.8,而 Claude Code 的得分为 70.3

随着上下文长度增加,两者之间的差距还会进一步扩大。

有工程师在 OpenClaw 上连续运行了一周后表示:

“说它运行良好都算是保守的评价。”

七、安全能力进一步加强

在安全方面,新版本也加入了多项增强措施,包括:

  • 防提示词注入机制
  • 请求拦截与策略控制
  • 凭据保护
  • UTC 时间戳锚定对齐

这些改进进一步提高了 Agent 在企业环境中的可控性与安全性。

AI Agent 正走向“虚拟员工时代”

目前 OpenClaw 在 GitHub 上的 Star 数已接近 28 万,社区规模仍在持续增长。

从社交媒体到企业办公室,越来越多的人开始尝试使用 OpenClaw。它的应用场景也从专业开发者逐渐扩展到更广泛的行业,例如:

  • 投资研究与选股分析
  • 报告撰写
  • PPT 制作
  • 邮件自动生成
  • 编程辅助

随着 Agent 架构不断成熟,AI 智能体助手很可能很快成为每个人手中的 “虚拟员工”,承担大量重复性工作,大幅降低知识工作的成本。

Read more

《算法闯关指南:优选算法--前缀和》--25.【模板】前缀和,26.【模板】二维前缀和

《算法闯关指南:优选算法--前缀和》--25.【模板】前缀和,26.【模板】二维前缀和

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 25.【模板】前缀和 * 解法(前缀和): * 算法思路: * C++算法代码: * 算法总结&&笔记展示: * 26.【模板】二维前缀和 * 解法: * 算法思路: * C++算法代码: * 算法总结&&笔记展示: * 结尾: 前言: 聚焦算法题实战,系统讲解三大核心板块:优选算法:剖析动态规划、二分法等高效策略,学会寻找“最优解”。 递归与回溯:掌握问题分解与状态回退,攻克组合、排列等难题。 贪心算法:

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 collection 为鸿蒙端处理海量业务数据提供算法级的集合操作支持(数据处理瑞士军刀)

Flutter for OpenHarmony: Flutter 三方库 collection 为鸿蒙端处理海量业务数据提供算法级的集合操作支持(数据处理瑞士军刀)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 的复杂业务逻辑开发时,我们经常需要处理各种 Lists、Sets 和 Maps: 1. 数据分组:如何将成百上千条鸿蒙日志按日期自动归类(GroupBy)? 2. 集合对比:如何判断两个鸿蒙节点的状态列表是否内容一致(无视顺序)? 3. 优先级队列:如何在鸿蒙任务调度中自动让高优先级的任务插队排在第一位? collection 软件包是 Dart 官方团队维护的“集合增强包”。它补齐了原生态集合操作在算法层面的短板,为鸿蒙开发者提供了一套工业级、高性能的数据处理函数库。 一、高级数据处理模型 collection 在基础 List/Map 之上增加了丰富的算法维度。 鸿蒙原始迭代器 (Iterable) 分组与聚合 (GroupBy) 特殊数据结构 (Queue/Heap) 业务最终态 深层对比 (Equality)

By Ne0inhk
Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型

Qwen-3 微调实战:用 Python 和 Unsloth 打造专属 AI 模型

虽然大家都忙着在 DeepSeek 上构建应用,但那些聪明的开发者们却悄悄发现了 Qwen-3 的微调功能,这可是一个隐藏的宝藏,能把通用型 AI 变成你的专属数字专家。 通过这篇文章,你将学到如何针对特定用途微调最新的 Qwen-3 模型。无论是刚刚踏入 AI 领域的初学者,还是经验丰富的 AI 工程师,这篇文章都有适合你的内容。 Qwen3 很快就成为了大多数开发者的首选。它之所以如此受欢迎,是因为它在编码、数学、通用能力等竞争性评估中获得的基准分数。 这些基准分数超过了主要的 LLM,包括 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等模型。此外,小 MoE 模型 Qwen3–30B-A3B 在激活参数数量上是 Qwen-32B 的 10 倍,甚至一个像

By Ne0inhk