一个韩国开发者凌晨4点醒来,用AI把泄露的Claude Code移植到了Python,2小时斩获50K Stars

周五下午四点半,正是摸鱼等下班的黄金时段,公司那个常年只有“订餐”和“周报提醒”的架构组群聊突然炸了。

一张截图被反复转发:GitHub 上的一个新项目 Claw-code,在短短 2 小时内狂揽了 5 万个 Stars。

程序员反应图:有了这些还要女朋友干嘛
这一段,懂的都懂

这种涨星速度,让见惯了大场面的老架构师都怀疑是不是 GitHub 的数据库被拖库了,或者是 Harness 公司买通了全球的僵尸粉。

程序员反应图:真正的程序员
这一段,懂的都懂

但当大家点开那个简洁得近乎简陋的 README 时,空气中弥漫着一种“这玩意儿可能真的要砸我饭碗”的危机感。

这种危机感并非来自 AI 能写代码,而是它终于开始尝试“改”代码了。

我们早就厌倦了那种“对话框式”的编程:在 ChatGPT 里输入一段需求,得到一段看似完美但运行就报错的代码,然后你像个搬运工一样在 IDE 和浏览器之间来回切换,手动合并那些该死的冲突。

程序员系列表情:不知道,代码都是百度抄来的,复制过来的怎么会错误
程序员的日常,多少带点离谱

AI 助手就像一个懂点代码但完全没进过项目组的实习生,它给你的建议往往像是一场没有上下文的艳遇,刺激但无法落地。

2 小时 50K stars 的荒诞与真实

很多人看到这个数据的第一反应是“营销号又在吹牛”。但在技术圈,Harness 这个名字本身就代表了一种工程上的克制与实用主义。

Claw-code 的爆火,本质上是开发者对“AI 幻觉”和“手动搬砖”积怨已久的一次集体爆发。它解决的不是“怎么写代码”,而是“怎么把 AI 写的代码无缝塞进现有的屎山里”。

系统当面抛出一个异常时的无语表情
看到这涨星速度,我第一反应是 GitHub 崩了

这件事之所以和每个开发者有关,是因为它标志着 AI 编程从“生成时代”正式跨入了“工程时代”。

如果你还在玩命背诵 Prompt,或者在为 Copilot 偶尔生成的几个函数沾沾自喜,那么你可能还没意识到,真正的效率鸿沟正在从“写”转向“合”。

Claw-code 试图省下的,正是那部分最消磨意志的、在不同文件间跳跃修改的“体力活”。

根因:AI 助手的“最后一公里”断裂

实习生困境:懂代码,但不懂你的工程结构

为什么 ChatGPT 给出的代码总是跑不通?核心原因在于“上下文窗口”的虚假繁荣。

即便模型支持 128K 甚至 1M 的上下文,它依然无法真正理解一个拥有上千个类、错综复杂的依赖关系以及各种私有配置的真实工程。

它给你的代码是孤立的,就像给你寄来了一个高精密的心脏瓣膜,却没告诉你这玩意儿该怎么接在你的老式水泵上。

程序员反应图:你做梦,告诉你不可能
需求改了三次,AI 还在原地打转,因为它根本不知道我改了哪个 Config

这种断裂导致了极高的认知负荷。开发者需要充当“人工编译器”,去检查 AI 生成的代码是否引用了不存在的变量,是否破坏了单例模式,或者是否在不经意间引入了循环依赖。

这种损耗,往往让所谓的“AI 提效”变成了“AI 挖坑,人工填土”。

复制粘贴的隐形代价

手动合并代码时的逻辑冲突是低级 Bug 的温床。你以为只是复制了一个方法,结果却覆盖了同事刚刚提交的补丁。

开发者体验(DX)的阈值正在崩塌,我们需要的不是一个会写诗的 AI,而是一个能帮我们把 pom.xml 里的依赖版本对齐、把 Service 层的逻辑精准注入、且不破坏原有缩进和注释的“外骨骼”。

深度拆解:Claw-code 的“外骨骼”是怎么造出来的?

Harness Engineering:不仅仅是 Prompt 包装

Claw-code 提出的 Harness Engineering 概念,核心在于建立一个“闭环”。它不再是简单的 User -> AI -> Code,而是一个复杂的交互回路。

它通过一个核心引擎(Core Engine)来接管 AI 的输出,并将其转化为具体的工程动作(Agent Actions)。

A[User Input] --> B[Core Engine]
A[User Input] --> B[Core Engine]

在这个流程中,最关键的步骤是 AST ParserPrecise Diff。它不是在做文本替换,而是在做语义合并。

这意味着它知道哪里是一个方法的开始,哪里是一个注解的结束,从而避免了正则替换时常出现的“误伤”。

AST 级别的精准打击

为什么说 Claw-code 是“改”代码而不是“写”代码?因为它操作的是抽象语法树(AST)。

传统的 AI 助手是把整个文件重写一遍,而 Claw-code 则是像外科医生一样,只针对特定的节点进行切除和缝合。

这种局部更新(Partial Update)与全量覆盖(Full Overwrite)的博弈,正是工程化落地的分水岭。

大佬系列表情:My dear dalao please daidaiwo
这波操作,确实比正则替换高级多了,至少它不会把我的注释给吞了

这种精准性带来的好处是巨大的:它能保持代码的原始风格,保留那些 AI 往往会忽略的边缘 Case 注释,并且极大地减少了 Git 提交时的冲突行数。

对于维护大型遗留系统的工程师来说,这简直是救命稻草。

实战复盘:在 Java 遗留代码里“开刀”

为了验证这 50K stars 的含金量,我尝试用它重构一个带循环依赖的 Service 类。这是一个典型的“屎山”场景:逻辑混乱、依赖复杂、且没有任何单元测试保护。

⚠️ 踩坑提醒:别让 AI 玩火

在实测中,我发现 Claw-code 并非万能。当我要求它“解耦循环依赖”时,它表现出了极强的攻击性。

它试图通过引入一个中间层(Intermediate Layer)来解决问题,但在生成的过程中,它竟然漏掉了 Maven 里的一个关键依赖配置,导致整个项目在编译阶段直接挂掉。

  1. 配置文件丢失:AI 在修改 Java 文件的同时,对 pom.xml 的感知较弱,容易导致代码写好了但环境没配好。
  2. 依赖冲突:它引入的新库版本与现有项目中的 Spring Boot 版本不兼容。

从数据上看,Token 的消耗与生成质量之间存在一个明显的性价比曲线。当你一次性要求它修改超过 5 个关联文件时,生成质量会呈断崖式下跌。目前的最佳实践是:小步快跑,单次只改一个逻辑单元。

程序员 reaction:2005 me and my 35 kg case heading to the shop because i deleted system 3 2005 me and my 35 kg case headin
Review 它的代码时,我感觉自己像是在拆炸弹

生产级方案:如何正确调教你的 Claw-code

想要在生产环境用好它,你必须学会编写规则文件(.claws)。这就像是给外骨骼设定运动限制器。

通过预设上下文的“断舍离”原则,只把最核心的接口定义和配置信息喂给 AI,而不是把整个工程无脑塞进去。这不仅能节省 Token,更能显著提升 AI 的“智商”。

写在最后:AI 时代的“脚手架”工人

Claw-code 的出现,让我产生了一个清醒的判断:未来 AI 工具的护城河,绝对不再是它底层用了 GPT-4 还是 Claude 3.5,而是在于它对“工程闭环”的理解有多深。

模型是通用的,但工程场景是私有的、琐碎的、充满陷阱的。

我们正在从“写代码的人”变成“审阅代码动作的人”。这并不意味着工作变轻松了,反而对我们的架构能力提出了更高要求。你得知道哪里的代码能动,哪里的“屎山”只能绕着走。

AI 给了我们一把锋利的手术刀,但主刀医生依然是你。

搬砖系列表情:砖常繁忙,告辞
行了,趁它还没学会写 PPT,我先去把那几个 Bug 修了

最后留个问题给大家:如果 AI 真的能实现 AST 级别的精准修改,你愿意把核心业务代码的“一键重构权”交给它吗?或者说,你更担心的是它写错代码,还是它写得太好让你显得多余?

参考文献

  • GitHub Repository: Claw-code (https://github.com/harness/claw-code) - 核心源码参考
  • Harness Engineering Concept Paper (https://www.harness.io/blog/harness-engineering-ai) - 理论框架来源
  • OpenClaw Interaction Flow Documentation - 交互流程图解依据

延伸入口

Read more

WorkBuddy 安装使用完全指南:腾讯版“小龙虾“,一句话让 AI 替你干活

不用部署云服务器,不用写代码,下载安装即可使用。WorkBuddy 是腾讯推出的 AI 原生桌面智能体工作台,让"一句话完成复杂办公任务"真正成为现实。 一、WorkBuddy 是什么? 1.1 一句话定义 WorkBuddy 是腾讯云推出的 AI 原生桌面智能体(Desktop AI Agent)工作台,基于腾讯 CodeBuddy 同源架构构建。它不是一个只会聊天的对话框,而是一个能听懂人话、自主思考、直接操作你电脑上文件的 AI 同事。 你只需用自然语言描述需求,WorkBuddy 就能自动规划、拆解、执行多步骤任务,直接交付可验收的成果——Excel 报表、PPT 演示文稿、调研报告、数据分析图表,应有尽有。 1.2

Vercel Labs agent-browser 深度测评:AI时代的浏览器自动化利器

在AI Agent和自动化测试领域,浏览器自动化工具一直扮演着重要角色。Vercel Labs推出的agent-browser是一个专为AI Agent设计的浏览器自动化CLI工具,它结合了Rust的高性能和Node.js的灵活性,为开发者提供了全新的浏览器自动化解决方案。 项目特点 技术架构 * Rust核心:主要功能由Rust实现,提供高性能的底层操作 * Node.js封装:通过TypeScript提供友好的开发者接口 * 双模式支持:优先使用Rust实现,自动回退到Node.js版本 核心优势 * AI友好设计:独特的snapshot命令生成带引用标记的可访问性树 * 极简CLI:命令设计直观,易于集成到自动化流程 * 跨平台:支持Windows、macOS和Linux系统 安装指南 推荐安装方式(npm) npminstall -g agent-browser agent-browser install# 下载Chromium 这是最简单的安装方式,适合大多数用户。安装完成后会自动下载Chromium浏览器。 源码编译安装 git clo

人工智能:扩散模型(Diffusion Model)原理与图像生成实战

人工智能:扩散模型(Diffusion Model)原理与图像生成实战

人工智能:扩散模型(Diffusion Model)原理与图像生成实战 1.1 本章学习目标与重点 💡 学习目标:掌握扩散模型的核心原理、前向扩散与反向扩散过程,以及基于扩散模型的图像生成任务实战流程。 💡 学习重点:理解扩散模型的噪声添加与噪声消除机制,学会使用 PyTorch 搭建 DDPM 模型,完成手写数字图像生成任务。 1.2 扩散模型的核心思想 1.2.1 为什么需要扩散模型 💡 传统的生成模型(如 GAN)存在训练不稳定、模式崩溃等问题。扩散模型作为一种基于概率的生成模型,通过逐步添加噪声和逐步去除噪声的双向过程,实现了更稳定的训练和更高质量的生成效果。 扩散模型的灵感来源于非平衡热力学,它的核心是将复杂的生成问题拆解为多个简单的马尔可夫链步骤。在图像生成、文本生成、语音合成等领域,扩散模型的表现已经超越了传统生成模型。 1.2.2 扩散模型的基本框架 💡 扩散模型包含两个核心过程:前向扩散过程和反向扩散过程。 1. 前向扩散过程:从真实数据出发,