OpenClaw 大更新:支持 GPT-5.4、记忆热插拔,GitHub Star 突破 28 万

OpenClaw 大更新:支持 GPT-5.4、记忆热插拔,GitHub Star 突破 28 万

AI Agent 框架 OpenClaw 上周日发布 2026.3.7 版本更新,最受关注的变化之一,是正式加入对 GPT-5.4 的支持。与此同时,新版本还带来了 记忆系统热插拔(Hot-Swappable Memory)、Context Engine 插件体系、持久化频道绑定 等关键能力,并在模型生态、搜索工具链以及安全机制方面进行了系统升级。

对于越来越多正在尝试部署 AI Agent 的团队来说,这一版本的意义不只是功能更新,更像是一次 架构层级的升级

一、插件化上下文引擎:突破上下文窗口限制

此次更新最核心的变化之一,是引入 Context Engine 插件接口

新的插件体系提供完整的生命周期钩子,并通过基于插槽的注册表与配置驱动解析机制,使开发者可以接入不同的上下文管理策略。为了兼容旧行为,OpenClaw 同时加入了 LegacyContextEngine 包装器,在未配置插件时仍保持原有的上下文压缩逻辑。

这一机制让类似 lossless-claw 的插件能够实现新的上下文管理方式,而无需修改核心框架。

技术层面上,插件运行环境还通过 AsyncLocalStorage 提供作用域隔离的子智能体运行时,并新增 sessions.get 网关方法,使多智能体协作的上下文管理更加稳定。

简单来说,这一设计让开发者可以自由接入:

  • RAG(检索增强生成)
  • 知识图谱折叠
  • 无损上下文压缩算法

从而突破传统大模型 上下文窗口 的限制,为 AI Agent 的长期运行提供基础设施。

二、记忆系统支持热插拔

新版本还引入了 Hot-Swappable Memory(记忆热插拔) 机制。

在传统 Agent 架构中,记忆系统通常是框架内部固定的一部分。而在 OpenClaw 新版本中,开发者可以在不重启系统的情况下动态替换或升级记忆模块。

这意味着团队可以根据业务需求自由切换不同的记忆策略,例如:

  • 短期上下文记忆
  • 长期知识库
  • RAG 检索存储
  • 向量数据库

这种设计大幅提升了 Agent 在复杂业务场景中的灵活性,也让系统更接近 可扩展的智能体操作系统架构

三、持久化频道绑定:让 Agent 真正“常驻”

在协作场景中,OpenClaw 进一步强化了 持久化通信能力

新版本新增了 Discord 频道与 Telegram 话题的持久化绑定机制。绑定信息将被存储并自动恢复,即使服务重启,Agent 也能继续在原有线程中工作。

在 Telegram 生态中,系统还新增了多项功能:

  • 支持 /acp spawn 创建话题绑定
  • 支持 --thread here | auto 自动绑定
  • 后续消息可自动路由到对应 ACP 会话
  • 新增审批按钮与绑定确认提示

此外,在论坛组或私聊话题中,还可以为不同话题设置独立 agentId,使特定讨论线程绑定专用智能体,并拥有隔离的上下文记忆。

这意味着企业团队可以让不同的 Agent 常驻在不同部门群组中,持续处理任务并保留历史上下文。

四、工具链与模型生态优化

在工具链方面,OpenClaw 2026.3.7 对 Web 搜索工具进行了重构,并升级了搜索供应商接口。

例如原有 Perplexity AI 的接口被替换为新的 Search API,支持结构化搜索结果,并增加语言、地区以及时间过滤条件,从而提升信息获取的精确度。

新版本还原生支持 Gemini 系列中的 gemini-3.1-flash-lite-preview 模型,并提供:

  • 模型 ID 正规化
  • 默认别名
  • 图像理解支持
  • Gemini CLI 向前兼容

在本地模型生态方面,OpenClaw 进一步优化了与 Ollama 的兼容性。

新版系统可以正确隔离模型在 Thinking / Reasoning 阶段 的流式输出,不再将内部推理过程误当成最终回复输出。

同时,Docker 部署也得到优化。用户可以通过 OPENCLAW_EXTENSIONS 预打包扩展依赖,从而实现更快的容器启动速度以及更高的环境可复现性。

五、网关认证机制迎来重大调整

值得注意的是,此次更新还对 网关认证模式进行了重要调整。

如果同时配置:

  • gateway.auth.token
  • gateway.auth.password

现在必须显式指定 gateway.auth.mode 为 token 或 password。否则在升级后可能导致系统启动、配对或 TUI 失败。

对于现有部署用户来说,这一点需要特别留意。

六、性能测试:上下文越长优势越明显

OOLONG 基准测试中,使用相同模型时,搭载 lossless-claw 的新版 OpenClaw 得分为 74.8,而 Claude Code 的得分为 70.3

随着上下文长度增加,两者之间的差距还会进一步扩大。

有工程师在 OpenClaw 上连续运行了一周后表示:

“说它运行良好都算是保守的评价。”

七、安全能力进一步加强

在安全方面,新版本也加入了多项增强措施,包括:

  • 防提示词注入机制
  • 请求拦截与策略控制
  • 凭据保护
  • UTC 时间戳锚定对齐

这些改进进一步提高了 Agent 在企业环境中的可控性与安全性。

AI Agent 正走向“虚拟员工时代”

目前 OpenClaw 在 GitHub 上的 Star 数已接近 28 万,社区规模仍在持续增长。

从社交媒体到企业办公室,越来越多的人开始尝试使用 OpenClaw。它的应用场景也从专业开发者逐渐扩展到更广泛的行业,例如:

  • 投资研究与选股分析
  • 报告撰写
  • PPT 制作
  • 邮件自动生成
  • 编程辅助

随着 Agent 架构不断成熟,AI 智能体助手很可能很快成为每个人手中的 “虚拟员工”,承担大量重复性工作,大幅降低知识工作的成本。

Read more

Flutter 三方库 index_generator — 赋能鸿蒙大型项目自动化生成 Export 导出索引,消除繁琐 Import 片段工程化利器(适配鸿蒙 HarmonyOS Next ohos

Flutter 三方库 index_generator — 赋能鸿蒙大型项目自动化生成 Export 导出索引,消除繁琐 Import 片段工程化利器(适配鸿蒙 HarmonyOS Next ohos

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net。 Flutter 三方库 index_generator — 赋能鸿蒙大型项目自动化生成 Export 导出索引,消除繁琐 Import 片段的工程化利器(适配鸿蒙 HarmonyOS Next ohos) 前言 在华为鸿蒙(OpenHarmony)生态的深度开发中,随着业务组件和模型类的爆发式增长,开发者经常会陷入“Import 迷宫”。当你需要引用某个页面时,发现上方堆叠了数十行细碎的文件引用,这不仅影响代码的可读性,更让后续的重构工作(如移动目录)变得极其痛苦。 index_generator 是一款极其高效的命令行工具。它能根据你定义的配置文件,自动扫描指定目录并生成一个统一的“索引文件(Barrel File,通常为 index.dart)”,将目录下的所有组件一键导出。在构建鸿蒙平台的复杂多模块(Multi-module)工程、管理庞大的 UI

By Ne0inhk
Flutter for OpenHarmony: Flutter 三方库 cached_query 为鸿蒙应用打造高性能声明式数据缓存系统(前端缓存终极方案)

Flutter for OpenHarmony: Flutter 三方库 cached_query 为鸿蒙应用打造高性能声明式数据缓存系统(前端缓存终极方案)

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net 前言 在进行 OpenHarmony 应用开发时,网络请求的响应速度直接决定了用户体验(体验 UX)。如果用户每次切换页面都必须等待加载动画,应用会显得非常低级。我们不仅需要处理异步数据请求,更需要一套精密的机制来解决以下痛点: 1. 自动缓存:第二次访问时应瞬间展示历史数据。 2. 过期失效(Stale-while-revalidate):在展示旧数据的同时,后台静默拉取新数据。 3. 无限滚动:简单地处理分页与数据追加内容逻辑。 cached_query 是一个类似于 Web 端 React Query 的 Dart 状态管理库。它专注于数据获取与同步,让你的鸿蒙应用具备顶级的数据缓存表现。 一、核心缓存驱动机制 cached_query 在内存与数据源之间建立了一层“智能感知”缓存。 数据过期/缺失 返回新数据 发射流

By Ne0inhk

AI绘画实战:从关键词到高质量图像生成的技术实现与优化

快速体验 在开始今天关于 AI绘画实战:从关键词到高质量图像生成的技术实现与优化 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AI绘画实战:从关键词到高质量图像生成的技术实现与优化 背景痛点分析 在AI绘画的实际开发过程中,关键词(Prompt)的运用往往是决定生成效果的关键因素,但开发者常面临以下典型问题: * 语义鸿沟:自然语言描述与模型理解之间存在偏差,同样的关键词在不同模型中可能产生截然不同的结果 * 效果不稳定:

By Ne0inhk

Whisper自动转录:为HeyGem提供精准字幕与时间轴参考

Whisper自动转录:为HeyGem提供精准字幕与时间轴参考 在内容创作迈向智能化的今天,一个日益突出的问题摆在我们面前:如何以更低的成本、更高的效率批量生成高质量讲解类视频?传统真人出镜+后期剪辑的模式不仅耗时费力,还难以应对高频更新的内容需求。尤其对于企业培训、知识科普、数字客服等场景,自动化视频生成已成为刚需。 正是在这样的背景下,HeyGem 数字人视频系统应运而生——它不依赖真人演员,而是通过音频驱动虚拟形象“说话”,实现从声音到画面的端到端合成。而在这条技术链中,最关键的一步,就是让数字人的“嘴”能真正跟上“声音”。这背后,离不开一套高精度、低延迟、可本地部署的语音识别引擎。Whisper,正扮演了这个核心角色。 为什么是 Whisper? 市面上的语音识别方案不少,但大多数都不适合集成进像 HeyGem 这样的本地化 AI 视频系统。云服务虽然开箱即用,但存在隐私风险、网络依赖和持续计费问题;开源模型如 DeepSpeech 虽然免费,但在多语言支持和噪声环境下的表现远不如人意。 Whisper 却是个例外。它是

By Ne0inhk