大模型之OpenClaw介绍-开源自主AI执行代理(AI Agent)

OpenClaw 是 2026 年初爆火的开源自主 AI 执行代理(AI Agent)
主打本地优先、强执行、可自托管,能通过自然语言指令自动拆解、规划并完成真实任务

OpenClaw = 能替你干活的本地 AI 数字员工
不是只会聊天的机器人,而是真执行、真操作、真完成任务
前身为 Clawdbot → Moltbot,2026 年 1 月正式定名 OpenClaw
由 PSPDFKit 创始人 Peter Steinberger 开发,MIT 开源

特点

  1. 本地优先 + 隐私可控
    可部署在本地电脑、服务器、树莓派,数据不强制上传云端
    支持接入本地模型(Ollama)、Claude、GPT、DeepSeek 等
  2. 强执行闭环(感知 → 规划 → 执行 → 反馈)
    任务拆解:自然语言指令 → 自动拆成步骤
    工具调用:操作文件、浏览器、Shell、API、邮件、日历、代码、数据库
    持久记忆:记住偏好、历史、流程,可主动提醒
    多渠道交互:通过 Telegram、WhatsApp、Discord、飞书、QQ 等聊天软件发指令
  3. 低门槛 + 可扩展
    不用写代码,说人话就能用
    插件化扩展,支持自定义工具与工作流

典型使用场景

个人助理:自动发邮件、整理文件、管理日程、监控数据
自动化办公:批量处理报表、自动部署代码、对接 API 流程
开发运维:自动测试、日志分析、服务器巡检
轻量团队协作:跨平台任务调度、自动同步信息

技术架构

用户(聊天软件)

OpenClaw 核心(任务规划 + 记忆 + 调度)

大模型(本地/云端)

工具执行(文件/浏览器/Shell/API/系统)

定时任务问题

OpenClaw 这类开源 Agent 都有一个通病:所有周期性任务默认对齐整点 / 整小时,再加上 NTP 极准 → 全球流量瞬间挤爆

为什么会整点暴增?

OpenClaw 定时逻辑太简单,大部分定时是:

  • 每小时执行一次
  • 每天 00:00 执行
    它不会自动错开,只会严格对齐时钟。

NTP 太稳
现在服务器 / 电脑时钟误差 < 10ms

结果就是:
全世界几千几万个实例,在同一毫秒一起发起请求,API 厂商直接被打崩

  • OpenAI / Gemini / 本地模型
  • 一到整点 QPS 瞬间拉满 → 超时、429、排队
    整点流量尖峰 → 平时很平 → 下一个整点又爆

业内怎么解决

给定时任务加随机偏移(jitter /stagger)

示例:
不是:每小时执行
而是:每小时 ±3~7 分钟随机执行

这样:
任务还是周期跑
但不会同时挤在一起
流量曲线从尖刺 → 变平滑

对应到 OpenClaw
它现在的问题就是:缺少 jitter 机制,所有定时任务都对齐时钟,NTP 越准,雪崩越严重

OpenClaw 周期性任务 = 对齐时钟 + 无随机偏移 + NTP 极准 → 全球实例同时触发 → 整点流量暴增 → API 炸、429 满天飞

NTP 是啥

NTP = Network Time Protocol
中文:网络时间协议
作用只有一个:让全世界所有设备的时间,精准对齐到同一秒

Prompt Caching Hit Rate

指在LLM推理系统中,缓存系统成功命中(即复用已有Prompt的缓存内容)的请求次数占总请求次数的比例

OpenClaw 0点和8点出现的429错误堆积,与这两个时间点Prompt Caching Hit Rate大幅下降直接相关
说明系统在这两个时间点对已有Prompt缓存的利用率降低,导致更多请求需要重新计算,从而引发集群压力

具体而言,Prompt Caching Hit Rate衡量了系统通过缓存复用减少重复计算的效率:

  • 高命中率意味着更多请求能直接使用已缓存的KV数据,减少计算和资源消耗
  • 低命中率则会导致大量请求进入未缓存状态,增加系统负载和响应延迟
    在AI Agent系统中,由于每次交互可能生成更长的上下文,若Prompt结构设计不当,如动态内容占比过高或工具调用频繁变动,会破坏缓存前缀匹配,导致命中率骤降,进而影响成本和延迟

此外,缓存策略中的前缀精确匹配约束(如工具定义、系统提示、对话消息的顺序)和缓存生命周期(TTL)也会影响命中率。
例如,vLLM通过优化哈希算法(如xxHash替代SHA-256)提升缓存匹配速度,而合理的缓存预热(如在流量低谷期加载高频请求)和分层缓存结构(L1/L2)可进一步提高缓存利用率

Prompt Caching Hit Rate是评估LLM系统推理效率和成本控制的关键指标,其高低直接反映了跨请求复用已有计算结果的能力
在高并发场景(如每天0点/8点的流量高峰)中尤为重要

原文

https://zhuanlan.zhihu.com/p/2006506955775169424?next=https%3A%2F%2Fzhuanlan.zhihu.com

把当天的日期写在 System prompt 里面可以帮助模型更好的理解今天是什么时候
但当每个人都这么做的时候,就意味着所有人在同一个瞬间 KVCache 全部失效(为什么会失效?考点1)
触发了一次 Thundering herd problem(Thundering herd problem,惊群效应,雪崩效应)

Thundering herd problem是指大量请求在同一时间因缓存失效而集中访问后端服务,导致系统负载骤增。
当所有用户都在System prompt中加入日期时,KVCache在同一瞬间失效,大量请求同时触发,造成后端服务压力剧增。

为什么日期跳变会导致 KV Cache 失效?
Prompt Cache 基于前缀匹配机制,日期改变会使 token 序列发生变化,导致前缀哈希值不匹配
从而使整个 KV Cache 链断裂,必须重新计算

为什么日期写在了 tool description 里面,会导致更严重的 KVCache 失效?
日期写在 Tool Description 里比 System Prompt 更严重
Tool Description 会被所有调用该工具的会话共享,且通常位于 prompt 靠前位置,一旦变化会引发全局性 Cache 失效
System Prompt 变化只影响单个会话

为什么 Claude Code 只有 10k Cache 命中?
它在每次请求的固定位置嵌入了动态内容,导致 Prefix Cache 只能匹配前 10k tokens 的静态部分,之后的内容全部无法命中

Cached Token 不计费如何决定套餐耐用性?
在 Agentic 场景下,95% 以上的 Cache 命中率意味着实际只支付 5% 的新增 token 费用
一旦 Cache 失效,用户套餐额度会被快速耗尽(实际计费 token 数激增 10-20 倍)
同时厂商需承担额外 GPU 计算成本却无法获得对应收入

什么是agent的缓存前缀匹配

Agent 的缓存前缀匹配,是解决 Agent 系统(比如 OpenClaw)重复计算、提升响应速度的核心优化手段
本质是用 “前缀” 快速定位缓存、避免重复干活

Agent 缓存前缀匹配 = 给 Agent 的任务 / 查询加 “分类前缀”,查询缓存时只匹配前缀相同的结果,既快又准,还能避免缓存污染

为什么 Agent 需要前缀匹配?

普通缓存是 “全量匹配”(比如用完整查询当 Key),但 Agent 有两个问题:
任务描述灵活:同一个任务,你说 “查今天天气” 和 “帮我看下今日气温”,全量 Key 不一样,但本质是一个事
任务有层级:Agent 拆解任务时,会有 “父任务 - 子任务”,比如 “整理周报”→“查销售数据”→“导出 1 月销售额”,需要按层级缓存

前缀匹配刚好解决:
用固定前缀(比如 weather_/sales_report_)给缓存分类
查缓存时先匹配前缀,再找具体内容
既快(不用遍历全量缓存),又能复用相似任务的结果

通俗示例(对应 OpenClaw)

  1. 给任务加前缀(缓存 Key 设计)
    任务 缓存 Key(前缀 + 唯一标识)
    查北京今日天气 weather_北京_20260224
    查上海今日天气 weather_上海_20260224
    导出 1 月销售额 sales_export_202601
    计算 1 月销售总额 sales_calc_total_202601
  2. 前缀匹配的核心操作
    缓存写入:Agent 执行任务后,按「前缀 + 任务特征」生成 Key,存入结果
    缓存查询:新任务来临时,先提取前缀(比如 “查天气”→ 前缀 weather_),再匹配该前缀下的缓存:
  • 若有「weather_北京_20260224」,直接返回,不用重新查接口
  • 若没有,再执行真实操作
    缓存清理:按前缀批量删(比如 sales_*),不用一个个删,效率高

Agent 缓存前缀匹配的关键设计

  1. 前缀规则(要简单、可扩展)
# OpenClaw 风格的前缀映射(伪代码) PREFIX_MAP ={"天气查询":"weather_","销售数据":"sales_","文件整理":"file_organize_","邮件发送":"email_send_",# 可自定义扩展}# 提取任务前缀defget_task_prefix(task:str)->str:for keyword, prefix in PREFIX_MAP.items():if keyword in task:return prefix return"default_"# 兜底前缀
  1. 前缀匹配缓存逻辑
import redis # 常用缓存库# 初始化缓存 cache = redis.Redis(host="localhost", port=6379, db=0)# 缓存查询(前缀匹配)defget_cached_result(task:str):# 1. 提取前缀 prefix = get_task_prefix(task)# 2. 生成任务特征(比如地点+日期) task_feature = extract_feature(task)# 比如从"查北京今日天气"提取"北京_20260224" cache_key =f"{prefix}{task_feature}"# 3. 先查精确匹配(最快) result = cache.get(cache_key)if result:return result.decode()# 4. 若精确匹配无结果,查前缀下的相似结果(可选) similar_keys = cache.keys(f"{prefix}*")if similar_keys:# 比如返回最新的相似结果,或提示用户是否复用returnf"相似结果:{cache.get(similar_keys[-1]).decode()}"# 5. 无缓存,返回空returnNone# 缓存写入defset_cached_result(task:str, result:str, expire=3600): prefix = get_task_prefix(task) task_feature = extract_feature(task) cache_key =f"{prefix}{task_feature}" cache.setex(cache_key, expire, result)

前缀匹配缓存能减少重复请求(比如多个 Agent 查同一城市天气,只查一次接口),缓解整点流量暴增
给周期性任务的缓存加「时间前缀」(比如 hourly_task_08_/hourly_task_09_),既能按小时缓存,又能精准清理
集群模式下,前缀匹配能让所有 Agent 共享同一类任务的缓存,避免集群内重复执行

前缀别太长 / 太复杂:比如别用 weather_beijing_today_,简化成 weather_bj_20260224,匹配更快
加过期时间:天气、销售数据这类实时性强的,缓存别永久存,设 1 小时 / 6 小时过期
避免前缀冲突:比如别把 “文件整理” 和 “文件导出” 都设为 file_,可细化为 file_organize_/file_export_

总结

Agent 缓存前缀匹配核心是给缓存 Key 加分类前缀,通过前缀快速定位 / 复用缓存,提升响应速度、减少重复请求
关键是设计简洁的前缀规则,并结合任务特征生成缓存 Key,同时注意过期时间和前缀冲突
该优化能直接缓解 OpenClaw 这类 Agent 的整点流量暴增问题

Read more

从安装到代码提交:Git 远程协作中 90% 的问题都能在这里找到答案

从安装到代码提交:Git 远程协作中 90% 的问题都能在这里找到答案

工欲善其事,必先利其器。 目录 * 安装 Git 的步骤: * 本地Git与远程仓库连接及操作全指南 * 一、本地仓库初始化与远程仓库连接 * 1. 初始化本地Git仓库 * 2. 关联远程仓库 * 1. 查看当前分支状态 * 2. 新建本地分支 * 方法1:基于当前分支创建新分支 * 方法2:创建并直接切换到新分支(推荐) * 方法3:基于远程分支创建本地分支 * 3. 切换到已有的本地分支 * 二、分支管理与远程分支同步 * 1. 查看远程分支 * 2. 拉取远程分支到本地 * 三、代码提交与推送到远程仓库 * 1. 常规提交流程 * 2. 简化推送命令 * 四、远程仓库信息查看与更新 * 1. 查看远程仓库详细信息 * 2. 同步远程仓库最新数据 * 五、常见问题解决与优化配置 * 1. 网络与连接问题修复 * 2. 推送大文件或提升传输稳定性

By Ne0inhk
Git下载及安装保姆级教程(内附快速下载方法)

Git下载及安装保姆级教程(内附快速下载方法)

一、下载Git 1、Git的下载地址 Git-2.47.1-64-bit https://git-scm.com/downloads 选择相应的操作系统下载,这里给出的是当前最新版本2.47.1,如需下载之前的版本,可在图片显示的红框内,点击Older releases即可。 PS:由于一些原因,Git安装包下载速度较慢,可以复制资源链接到迅雷等第三方下载工具下载或直接下载本文的资源即可 2、等待安装 找到下载的安装包双击进行安装。 二、Git的安装 1、阅读说明 点击Next进行下一步。 2、选择安装路径 默认安装路径为C:\Program Files\Git,如需修改,点击①Browse选择文件夹,无需修改点击②Next进行下一步。 3、选择安装组件 ①为在桌面上显示Git图标,可以勾选。其余默认选项不建议取消勾选,以免安装出现意外问题。如确认无误,点击②

By Ne0inhk

Git常用指令

Git 常用50个核心操作命令(附详细说明) 以下按仓库初始化与配置、文件状态与暂存、提交与日志、分支管理、远程仓库、合并与变基、标签、撤销与回滚、LFS大文件、高级实用十大场景分类,覆盖开发全流程高频操作,命令简洁且标注适用场景,新手也能直接套用。 一、仓库初始化与全局配置(5个) 主要用于首次使用Git的环境配置、本地仓库创建,配置后全局生效(除非单独修改仓库配置)。 1. git config --global user.name "你的用户名" 配置Git全局提交用户名(GitHub/GitLab的用户名,必填)。 2. git config --global user.email "你的邮箱" 配置Git全局提交邮箱(与GitHub/GitLab绑定的邮箱,必填)。 3.

By Ne0inhk
【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

【全网最全的的本地部署Code Agent攻略参考】跃阶星辰AI开源Step-3.5-Flash

1. 简介 Step 3.5 Flash(访问官网)是我们目前最强大的开源基础模型,专为提供前沿推理与智能体能力而设计,同时具备卓越的效率。基于稀疏混合专家(MoE)架构,它每处理一个token仅激活1960亿参数中的110亿。这种"智能密度"使其推理深度可比肩顶级闭源模型,同时保持实时交互所需的敏捷性。 2. 核心能力 * 高速深度推理:聊天机器人擅长阅读,而智能体必须快速推理。通过三路多token预测(MTP-3)技术,Step 3.5 Flash在典型使用场景中实现100-300 tok/s的生成吞吐量(单流编码任务峰值达350 tok/s),能即时响应复杂的多步推理链条。 * 编码与智能体的强力引擎:Step 3.5 Flash专为智能体任务打造,集成可扩展的强化学习框架驱动持续自我进化。其SWE-bench Verified通过率74.4%,Terminal-Bench 2.0通过率51.

By Ne0inhk