警惕!OpenClaw隐藏的致命Bug:网络超时误报上下文溢出,可导致系统陷入死循环

救命!我的AI助手OpenClaw深夜疯了!前天晚上开始,如果按照推文时间来算,应该是前天晚上了,OpenClaw像着了魔一样,过一会就在聊天窗口刷屏报错,最后竟然把自己给玩死了!

我们前面介绍了两种方式来给OpenClaw提供近乎无限量的token,一种是对接有免费额度的平台(OpenClaw(原ClawdBot)免费AI模型终极配置指南:精选20+精英模型,打造你的低成本AI军团),另一种是直接“强奸”Antigravity(还在为AI API费用发愁?我找到了免费使用Gemini 3和Claude 4.5的方法)。

我本以为有这么高端的模型,再加上多档回退机制,我本该高枕无忧了,结果是万万没想到,我的OpenClaw遭遇了一场由底层Bug引发的鬼打墙式死循环!

昨天晚上七点半开始,间隔一段时间他就开始自己报错,到今天凌晨不报了,我以为恢复了,结果他又开始报上了!

我分析了一下规律,发现OpenClaw机器人刷屏报错的时间间隔大约是固定的75分钟,报错内容是Context overflow(上下文溢出)、prompt too large(提示词太大)或Agent failed(Agent失败)等错误,让我一度以为是模型Token超限。实际上,我用的是gemini-3-flash这个模型,有100万Token的上下文容量,外加超高免费额度,理论上就不会出现这些错误,如果直接在Antigravity进行操作,则没有报错,说明OpenClaw的底层,有BUG!

为了确认问题,我重启了OpenClaw服务,发现错误依然会在短时间内复现,这就有意思了。

既然我搞不定,我们不是还有Antigravity吗?让Antigravity去自证清白!

大概意思是说,对话中的所有内容,都会写入到当前会话的持久化存储中,如果清空聊天记录,就会出现下面的情况。

同时,OpenClaw包含一个名为google tool schema snapshot的后台守护进程,每15分钟自动运行一次,用于刷新工具定义和检查上下文状态。

好,接下来就是问题的关键,因为在调用接口时,Antigravity Gateway出现了一次连接超时或者速率限制(大概率是前者),精准命中OpenClaw的错误处理模块(errors.ts)的逻辑缺陷,简单粗暴地将此类网络层面的timeout或rate_limit错误统一包装为“Context overflow”展示给用户,触发误判。

更要命的是,系统将这次后台任务的失败判定为“严重异常”,触发了自动重试机制,进入死循环。同时,OpenClaw会将有问题的会话数据保存到了硬盘(sessions.json),即使重启服务,程序也会重新加载这段“有毒”的对话历史,一旦后台任务再次扫描到它,就会再次崩溃,再次进入死循环。

可以看到,到这里就基本上跟模型没有关系了。但问题还是要解决,直接让Antigravity恢复环境。

这就完了?还有更恶心的,除了把“有毒”的大文件保存在sessions.json之外,OpenClaw还把“被封禁/冷却中”这个错误状态保存在了另一个文件auth-profiles.json里。也就是说,即使删除文档,但OpenClaw脑子里还记着“我是被Google封杀的状态”,所以它拒绝工作。

解决方案有两个,如果是临时止血,可以修改下游业务代码,将调用的模型从 OpenClaw/Gemini切换为直连SiliconFlow/DeepSeek,避开故障点,确保业务恢复。也就是从最强大的模型回退到最经济的模型。

如果要根治修复,就要先停止服务,再手动删除OpenClaw的本地会话存储目录,彻底移除包含大文档的损坏上下文,清除毒化数据,跳出死循环。

systemctl --user stop openclaw-gateway.servicerm -rf /root/.openclaw/agents/main/sessionsrm -r /root/.openclaw/agents/main/agent/auth-profiles.jsonsystemctl --user start openclaw-gateway.service

重启服务之后,服务启动正常,日志中不再出现循环报错。不过,也得需要你再次配置认证才行。

之后,OpenClaw相当于完全失忆并作为新服务启动,又能再次投入工作了。

这次惊心动魄的排障经历给我们敲响了警钟:再强大的系统也可能因底层一个不起眼的Bug而崩溃。

如果你还没有遇到这个问题,那我得给你提个醒了,在OpenClaw修复此Bug之前,尽量避免在长期活跃的主Session中上传过大的文档。建议使用临时Session处理大文档,处理完后使用/new命令开启新会话。同时,建议配置多模型冗余,保持业务脚本具备多模型切换能力,如DeepSeek/Gemini互备,防止单一通道故障导致业务停摆。

你的系统是否也遇到过类似的灵异事件?欢迎在评论区分享你的排障故事!

***推荐阅读***

无需公网IPv4!手把手教你配置基于IPv6的WireGuard安全隧道

WireGuard配置太麻烦?我的Web管理系统通过HUB/SPOKE组网+SSH代管,效率提升100倍!

我们的WireGuard管理系统支持手机电脑了!全平台终端配置,支持扫码连接,一键搞定

腾讯云隐藏福利:如何通过一键操作白嫖CPU升级?性能飙升

OpenClaw(原ClawdBot)免费AI模型终极配置指南:精选20+精英模型,打造你的低成本AI军团

还在为AI API费用发愁?我找到了免费使用Gemini 3和Claude 4.5的方法

每月40元实现异地组网!用家用路由器+L2TP协议,在腾讯云上搭建企业级VPN枢纽

你的VPN客户端还在共用IP?最新的OpenVPN管理系统已支持每客户端独立公网IP!

成本省下99.7%!用40元的腾讯云服务器自建IPsecVPN,成功对接企业级飞塔防火墙

超越SR-MPLS!SRv6实测:基于纯IPv6数据面承载IPv4 VPN业务,体验协议简化之美

超越BE!实战演示SR-MPLS TE显式路径规划,为VPN业务提供可靠性能保障

2048卡昇腾910C集群算力集群交付工程手册

2048卡昇腾910C集群存储集群交付工程手册

Read more

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

MCP客户端与服务端初使用——让deepseek调用查询天气的mcp来查询天气

本系列主要通过调用天气的mcp server查询天气这个例子来学习什么是mcp,以及怎么设计mcp。话不多说,我们开始吧。主要参考的是B站的老哥做的一个教程,我把链接放到这里,大家如果有什么不懂的也可以去看一下。 https://www.bilibili.com/video/BV1NLXCYTEbj?spm_id_from=333.788.videopod.episodes&vd_source=32148098d54c83926572ec0bab6a3b1d https://blog.ZEEKLOG.net/fufan_LLM/article/details/146377471 最终的效果:让deepseek-v3使用天气查询的工具来查询指定地方的天气情况 技术介绍 MCP,即Model Context Protocol(模型上下文协议),是由Claude的母公司Anthropic在2024年底推出的一项创新技术协议。在它刚问世时,并未引起太多关注,反响较为平淡。然而,随着今年智能体Agent领域的迅猛发展,MCP逐渐进入大众视野并受到广泛关注。今年2月,

By Ne0inhk
可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

可以在命令行通过大模型使用上下文协议(MCP)与外部工具交互的软件:小巧的MCPHost

小巧的MCPHost MCPHost 可以在命令行下使用,使大型语言模型(LLM)能够通过模型上下文协议(MCP)与外部工具进行交互。目前支持Claude 3.5 Sonnet和Ollama等。本次实践使用自己架设的Deepseek v3模型,跑通了Time MCP服务。  官网:GitHub - mark3labs/mcphost: A CLI host application that enables Large Language Models (LLMs) to interact with external tools through the Model Context Protocol (MCP). 下载安装 使用非常方便,直接下载解压即可使用。官网提供Windows、Linux和MacOS三个系统的压缩包: https://github.com/

By Ne0inhk
实战篇:Python开发monogod数据库mcp server看完你就会了

实战篇:Python开发monogod数据库mcp server看完你就会了

原创不易,请关注公众号:【爬虫与大模型开发】,大模型的应用开发之路,整理了大模型在现在的企业级应用的实操及大家需要注意的一些AI开发的知识点!持续输出爬虫与大模型的相关文章。 前言 目前mcp协议是给deepseek大模型插上工具链的翅膀,让大模型不仅拥有超高的推理和文本生成能力,还能具备执行大脑意识的工具能力! 如何开发一个mcp? mcp是一种协议,指的是模型上下文协议 (Model Context Protocol)。 官方结成的mcp https://github.com/modelcontextprotocol/python-sdk mcp库 pip install mcp from mcp.server.fastmcp import FastMCP 我们先来做一个简单的案例 from mcp.server.fastmcp import FastMCP import requests mcp = FastMCP("spider") @mcp.tool() def crawl(

By Ne0inhk
AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建

AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 作者:高瑞冬 本文目录 * AI Agent新范式:FastGPT+MCP协议实现工具增强型智能体构建 * 一、MCP协议简介 * 二、创建MCP工具集 * 1. 获取MCP服务地址 * 2. 在FastGPT中创建MCP工具集 * 三、测试MCP工具 * 四、AI模型调用MCP工具 * 1. 调用单个工具 * 2. 调用整个工具集 * 五、私有化部署支持 * 1. 环境准备 * 2. 修改docker-compose.yml文件 * 3. 修改FastGPT配置 * 4. 重启服务 * 六、使用MCP-Proxy集成多个MCP服务 * 1. MCP-Proxy简介 * 2. 安装MCP-Proxy * 3. 配置MCP-Proxy * 4. 将MCP-Proxy与FastGPT集成 * 5. 高级配置

By Ne0inhk