OpenClaw 最强技能 self-improving-agent 详解:让 AI 从错误中自主学习

OpenClaw 最强技能 self-improving-agent 详解:让 AI 从错误中自主学习
self-improving-agent 是 OpenClaw 生态中最受欢迎的技能,下载量突破 268k。它能让 AI 记住犯过的错误和解决方案,实现持续自我改进。本文将深入讲解其工作原理、安装配置、实战案例和高级用法。

1 引言

在使用 AI 助手的过程中,你是否遇到过这样的困扰:

  • 今天教 AI 用 sudo 解决权限问题,明天它又忘了
  • 同一个 API 文档链接打不开,它下次还给你这个链接
  • 重复解释同样的工作流程,效率极低

这些问题源于传统 AI 助手的无状态特性——每次对话都是全新的开始,不会从历史交互中学习。

self-improving-agent 技能正是为了解决这个问题而生的。它通过记录错误、解决方案和用户反馈,让 AI 能够持续学习和改进。


2 self-improving-agent 是什么?

2.1 官方定义

self-improving-agent 是 OpenClaw 的一个技能插件,官方描述为:

Captures learnings, errors, and corrections to enable continuous improvement.

翻译成人话:捕捉学习点、错误和修正,实现持续改进。

2.2 核心功能

功能说明效果
错误记忆记录执行失败的命令和原因下次自动避开
方案优化记住用户偏好的解决方案主动提供优化版本
知识累积持续累积使用经验越用越聪明
反馈学习从用户纠正中学习及时更新认知

2.3 适用场景

  • ✅ 重复性工作流程(部署、测试、发布)
  • ✅ 容易出错的命令(权限、路径、配置)
  • ✅ 需要个性化偏好的场景(代码风格、工具选择)
  • ✅ 团队协作(经验共享)

3 安装与配置

3.1 环境要求

  • OpenClaw v2026.1.0 或更高版本
  • Node.js 18+
  • 任意聊天渠道(Telegram/微信/飞书等)

3.2 安装步骤

步骤 1:在 OpenClaw 对话框中输入安装命令

/install self-improving-agent 

步骤 2:等待安装完成

✅ 正在安装 self-improving-agent... ✅ 安装完成! 现在我会从错误中学习了。 

步骤 3:验证安装

/skills list 

输出应包含:

✓ self-improving-agent (active) 

3.3 配置文件

安装后会在 workspace 生成配置文件:

# ~/.openclaw/workspace/skills/self-improving-agent/config.yamlsettings:memory_enabled:true# 启用记忆功能auto_optimize:true# 自动优化方案feedback_learning:true

Read more

【Web APIs】JavaScript touch 触摸事件 ① ( touchstart 触摸开始事件 | touchmove 触摸移动事件 | touchend 触摸结束事件 )

【Web APIs】JavaScript touch 触摸事件 ① ( touchstart 触摸开始事件 | touchmove 触摸移动事件 | touchend 触摸结束事件 )

文章目录 * 一、JavaScript touch 触摸事件 * 1、 touchstart 触摸开始事件 * 2、touchmove 触摸移动事件 * 3、touchend 触摸结束事件 * 二、代码示例 - touch 触摸事件 * 1、代码示例 * 2、执行结果 一、JavaScript touch 触摸事件 touchstart、touchmove、touchend 事件是 JavaScript 专为支持 触摸操作 的 移动设备( 手机、平板等 ) 设计的核心触摸事件, 用于 监听用户的触摸行为 , 构成了 完整的 触摸生命周期 ; 1、 touchstart 触摸开始事件 touchstart 触摸开始事件 : * 核心定义

Qwen3-VL-WEBUI移动端集成:App调用API部署教程

Qwen3-VL-WEBUI移动端集成:App调用API部署教程 1. 引言 1.1 业务场景描述 随着多模态大模型在移动端应用的不断拓展,如何将强大的视觉-语言模型(VLM)能力无缝集成到移动 App 中,成为智能客服、图像理解、自动化操作等场景的关键技术挑战。传统方案往往依赖云端纯文本推理,难以满足对图像、视频内容实时理解与交互的需求。 Qwen3-VL-WEBUI 的出现为这一问题提供了高效解决方案。它不仅集成了阿里最新开源的 Qwen3-VL-4B-Instruct 模型,还内置了完整的 Web API 接口服务,支持通过 HTTP 调用实现图文输入、结构化输出,非常适合移动端 App 快速接入。 1.2 痛点分析 目前移动端集成 VLM 面临三大核心痛点: * 部署复杂:多数模型需自行搭建推理环境,配置 CUDA、PyTorch、Transformers 等组件,门槛高。 * 接口缺失:

AI Agent Skill Day 12:Web Search技能:互联网搜索与信息聚合

【AI Agent Skill Day 12】Web Search技能:互联网搜索与信息聚合 在“AI Agent Skill技能开发实战”系列的第12天,我们聚焦于Web Search技能——这一使Agent具备实时获取互联网公开信息能力的核心模块。随着大模型知识存在时效性限制(如训练数据截止至2023年或2024年),仅依赖内部知识库难以应对动态世界中的最新事件、股价、新闻、产品发布等需求。Web Search技能通过集成搜索引擎API(如SerpAPI、Google Programmable Search Engine、DuckDuckGo等),实现对网络信息的精准检索、结果聚合与语义提炼,是构建“活Agent”的关键一环。本技能广泛应用于智能客服、市场情报分析、科研辅助、金融舆情监控等场景,显著提升Agent的信息鲜度与决策质量。 技能概述 Web Search技能是指AI Agent在接收到用户查询后,自动调用外部搜索引擎接口,获取相关网页摘要、链接及结构化信息,并将结果进行清洗、去重、排序和语义压缩后返回给大模型,

实战:手写一个通用Web层鉴权注解,解决水平权限漏洞

实战:手写一个通用Web层鉴权注解,解决水平权限漏洞

实战:手写一个通用Web层鉴权注解,解决水平权限漏洞 * 一、背景:一次渗透测试引发的改造 * 二、需求分析:如何高效修复 * 三、业务模型:用户-公司授权关系 * 四、整体架构设计 * 五、代码实现:一步一步来 * 5.1 注解定义 * 5.2 权限管理服务 * 5.3 AOP切面:核心逻辑 * 六、使用示例 * 6.1 场景1:最简单的用法 * 6.2 场景2:对象属性 * 6.3 场景3:批量操作 * 6.4 场景4:嵌套属性 * 6.5 场景5:类级别默认配置 * 七、