OpenClaw Gateway 频繁断开/重启问题诊断

OpenClaw v2026.3.13版本 自动断开服务问题:

PS C:\Users\13400> openclaw cron list

12:32:05 [plugins] feishu_doc: Registered feishu_doc, feishu_app_scopes
12:32:05 [plugins] feishu_chat: Registered feishu_chat tool
12:32:05 [plugins] feishu_wiki: Registered feishu_wiki tool
12:32:05 [plugins] feishu_drive: Registered feishu_drive tool
12:32:05 [plugins] feishu_bitable: Registered bitable tools
gateway connect failed: Error: gateway closed (1000):

Error: gateway closed (1000 normal closure): no close reason
Gateway target: ws://127.0.0.1:18789
Source: local loopback
Config: C:\Users\13400\.openclaw\openclaw.json
Bind: loopback

12:32:05 [ws] handshake timeout conn=1db993d9-b28c-4531-bbd1-6bee24a0f7a4 remote=127.0.0.1
12:32:05 [ws] closed before connect conn=1db993d9-b28c-4531-bbd1-6bee24a0f7a4 remote=127.0.0.1 fwd=n/a origin=n/a host=127.0.0.1:18789 ua=n/a code=1000 reason=n/a

目前GitHub有以及提了bug修复,并且合并到了主分支,等待最新发版会修复这个问题。

问题描述:

网关客户端在连接握手时2秒后超时,而服务器的握手超时为3秒。这导致CLI命令在认证超过2秒时失败。openclaw nodes listgateway closed (1000 normal closure): no close reason

举措:

默认延迟从2000毫秒改成4000毫秒,以确保客户端在服务器完成认证前不会超时。connectChallengeTimeoutMs

相关:

GitHub修复: #45918

Read more

Stable Diffusion 秋叶大神2025最新整合一键安装包

Stable Diffusion 秋叶大神2025最新整合一键安装包

这段时间我在折腾 Stable Diffusion,期间试过很多安装方式。有手动安装的,也有别人做好的整合包。手动安装的方式对环境要求高,步骤也多,系统要装 Python,要装依赖,还要配好运行库,哪一步出错都要重新查资料,挺消耗时间。后来了解到秋叶大神做的整合一键安装包,这个版本省掉了很多折腾,对新手比较友好。 我自己把安装流程整理了一遍,又结合网上的信息,把一些需要注意的地方写下来,希望能帮到想尝试 Stable Diffusion 的人。 这里完整下载链接 秋叶整合包是什么 这个整合包属于别人已经帮你配好的版本,里面把 Stable Diffusion WebUI、模型管理、插件、运行环境都准备好了。下载之后按照提示解压,点一下启动脚本就能跑起来,不需要另外去折腾环境。 整合包里放的 WebUI 是常见的 AUTOMATIC1111 版本,所以大部分教程都能直接用。适合想直接出图、想先体验一下模型效果的人。 系统环境方面 我现在用的是 Windows 电脑,所以下面写的内容主要基于

By Ne0inhk

Lostlife2.0下载官网整合LLama-Factory引擎,增强NPC对话逻辑

Lostlife2.0整合LLama-Factory引擎,重塑NPC对话逻辑 在文字冒险游戏的世界里,玩家最怕什么?不是任务太难,也不是剧情平淡——而是和一个“话术机械、反应呆板”的NPC对话时,那种瞬间出戏的割裂感。明明世界观设定是末世废土,结果NPC张口就是“绝绝子”“破防了”,这种语言风格的崩塌足以让沉浸感荡然无存。 《Lostlife2.0》作为一款以深度叙事和角色互动为核心卖点的文字冒险游戏,在开发过程中就直面了这一难题。早期版本中,NPC的对话依赖传统的决策树系统:每句台词都由编剧手动编写,每个分支都需要精确配置。这不仅导致内容维护成本极高,更带来了“选项爆炸”问题——新增一条剧情线,往往要额外添加数十个节点,最终形成一张难以管理的复杂网络。 真正的转机出现在团队引入 LLama-Factory 之后。这个开源的大模型微调框架,原本主要用于科研与企业级AI定制,但《Lostlife2.0》团队敏锐地意识到:它或许能成为解决NPC智能瓶颈的关键工具。通过将LLama-Factory深度集成到开发流程中,他们成功构建了一套动态、可进化、风格一致的对话生成系统,彻底改变了传

By Ne0inhk
开源神器Cua登场:让AI替你操作电脑,告别重复劳动

开源神器Cua登场:让AI替你操作电脑,告别重复劳动

最近在GitHub上发现了一个非常有意思的开源项目,叫做Cua(读作"koo-ah"),这可能是我见过的最具革命性的AI自动化框架了。想象一下,如果AI能像人一样"看"屏幕,理解界面内容,然后自主操作电脑,那会是什么样的体验?Cua就是为了实现这个梦想而诞生的。 作为一个长期关注自动化工具的人,我必须说,传统的自动化方案都有一个致命弱点:太脆弱了。稍微改个UI布局,整个脚本就废了。但Cua完全不同,它让AI直接"看"屏幕,就像人一样理解界面,这种全新的思路真的让人眼前一亮。 什么是Computer-Use Agents 在正式介绍Cua之前,我们先聊聊什么是Computer-Use Agents(计算机使用代理,简称CUA)。简单来说,这是一种全新的AI系统,能够像人一样通过视觉理解和动作执行来自主操作计算机界面。 传统的自动化工具通常依赖于脆弱的CSS选择器、元素ID或者API接口。一旦网页或应用更新了界面,这些工具就彻底失效了。我相信很多写过网页爬虫或者UI自动化脚本的朋友都深有体感,维护成本简直是噩梦。 但CUA完全不同,它使用视觉语言模型来感知屏幕内容,就像人一样

By Ne0inhk

Faster Whisper语音识别终极指南:4倍速度的转录神器

Faster Whisper语音识别是OpenAI Whisper模型的高效重实现,基于CTranslate2推理引擎,为音频转录带来革命性的速度提升和内存优化。这个开源项目专门为需要快速处理大量音频内容的用户设计,无论是会议记录、播客转录还是视频字幕生成,都能轻松应对。 【免费下载链接】faster-whisper 项目地址: https://gitcode.com/gh_mirrors/fas/faster-whisper 🚀 为什么选择Faster Whisper? Faster Whisper相比原版Whisper具有显著优势: 速度优势对比 | 实现方案 | 精度 | 处理时间 | 最大GPU内存 | |---------|------|----------|-------------| | OpenAI Whisper | fp16 | 4分30秒 | 11325MB | | Faster Whisper | fp16 | 54秒 | 4755MB | | Faster Whisper | int8 | 59秒 | 3091MB | 核心特性亮点: * ⚡

By Ne0inhk