Cursor版OpenClaw来了,AI全天写代码修Bug,程序员危了!

Cursor版OpenClaw来了,AI全天写代码修Bug,程序员危了!

还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

Cursor搞了个“养龙虾”的新花样,让AI一天24小时连轴转,自动帮你评审、监控代码,顺手还能把Bug修了。

img

开发者梦寐以求的顶配“AI龙虾”助手,这回真来了?

3月6号智东西那边传来的消息,就在今天凌晨,Cursor官宣了个新东西——Cursor Automations,跟OpenClaw的功能很像。这玩意儿能让AI全天候待命,自动帮开发者盯着代码库,审核、监控、修补一条龙服务,甚至连研发流程都能帮着打理。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

有了这个功能,开发者只要把Agent配置好,它们就能盯着代码库持续优化,这简直就是搭建了一个完全自动化的“软件流水线”。而且,所有这些自动化的活儿都是由云端Agent来驱动的,它们用自己的算力去搞定构建、测试,还能给你演示干了啥。

RRecallAI的学习工具创始人Atlasis打趣说,照这么演变下去,“以后咱们只要当个厉害的机器人饲养员就行了”。还有个哥们儿说,他用OpenClaw跑了几个月全天候在线的Agent,Cursor能把这功能直接塞进IDE里,确实挺机智。甚至有人惊呼,这也太疯狂了,Cursor这是要变身OpenClaw🦞的节奏啊。因为OpenClaw的Logo和名字都跟龙虾沾边,所以用它来搭Agent助手,大家就戏称为“养龙虾”。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

这些Agent不仅能按开发者设定的定时任务跑,还能被各种事件触发,比如发条Slack消息、新建个Linear工单、合并GitHub PR,或者PagerDuty报警了都行。当然,开发者也能通过Webhook自己搞点自定义的触发事件。

现在Cursor官网已经摆出了一堆现成的自动化Agent,像什么修复CI故障、每天汇报变更总结、找漏洞、写文档之类的,一共12个。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

至于大家关心的钱的问题,Cursor AI的教育负责人Lee Robinson在答疑时透了个底:这些云端Agent和编辑器里消耗的是同一种token,只要你是Ultra订阅用户,就能享受这待遇。

img

不过,也有开发者对这种自动化Agent的安全性心里打鼓:万一Agent在大半夜三点钟自作主张合并了个补丁,结果把生产环境搞崩了,这锅谁来背?毕竟这些自主Agent是根据触发条件自己改代码,全程也没个人看着。

img


还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

01.靠自动化给力,代码评审、监控和维护效率起飞

随着编程Agent越来越火,每个程序员产出的代码量是上去了,但审代码、盯监控和维护的效率却没跟上。

Cursor方面表示,这次更新就是想借着自动化的东风,把开发生命周期里这些环节的效率也给提上去,实现规模化。

一旦被调用,自动化Agent就会启动一个云端沙箱,按照开发者设定好的MCP协议和模型去执行指令,完事儿还会自己检查输出结果对不对。

而且,Agent还能利用记忆工具,从以前干过的活儿里吸取教训,越用越顺手,越用越精准。

过去这几个礼拜,研究人员在Cursor自家的代码库里跑了不少自动化Agent,大概摸索出了两类最实用的场景:代码评审与监控(Review and monitoring)以及日常杂活处理(Chores)
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

02.24小时自动审、盯、修,Cursor自己内部都在用这三大Agent

在审查和监控这块儿,自动化功能特别适合用来评审代码变更,像什么代码风格不一样、格式乱了、有安全漏洞或者性能变差了,它都能发现并修好。

Cursor自家的自动化代码审查Agent叫Bugbot,只要有PR创建或者更新,它就开工,每天得跑个几千次,上线到现在已经揪出了数百万个漏洞。

这次新增的自动化功能,让开发者能针对不同场景定制各种评审Agent。下面这三种就是Cursor内部目前正在用的:

安全审查(Security review):这个自动化Agent会在每次代码推送到主干分支时自动干活。它能花更多时间去深挖那些隐蔽的、细节上的毛病,还不会卡住PR流程。

它会专门审计代码差异里的安全漏洞,自动跳过那些在PR里已经讨论过的问题,然后把发现的高风险问题发到Slack上。Cursor透露,这套自动化机制在他们内部已经抓到了好几个安全漏洞和严重缺陷。

智能代码责任人(Agentic codeowners):这个Agent会在每次PR创建或代码推送的时候,根据改动范围、复杂程度以及对基础设施的影响来给风险分个级。

风险低的PR直接自动审核通过;风险高的嘛,它会根据贡献历史,分配最多两个审核人员去把关。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
而且,它所有的决策结果都会汇总到Slack里,并通过MCP记录到Notion数据库,这样开发者回头就能审计Agent的行为,顺便优化一下指令。

事件响应(Incident response):一旦PagerDuty报警,这个自动化Agent就被触发了,立马启动一个Agent,通过Datadog MCP去查日志,看看代码库最近有啥变更。

接着,它会在Slack频道里给值班工程师发消息,带上监控信息和一个包含修复方案的PR,这样能帮开发者省下不少响应故障的时间。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

03.自己找Bug,每天一早汇报,每周推送重要变更

研究人员发现,自动化这东西,对于处理日常琐事和需要把不同工具信息拼凑起来的知识型工作,那也是相当好用。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
变更每周汇总(Weekly summary of changes):有个自动化Agent专门负责每周在Slack上发简报,把代码库过去7天的大动作汇总一下,重点展示那些已经合并的主要PR、Bug修复、欠的技术债、安全问题以及依赖更新。

img

测试覆盖范围(Test coverage):这个Agent每天大清早会爬起来审查最近合并的代码,看看哪块儿需要补充测试覆盖。它会照着项目现有的规矩写测试,只有在必须要动生产代码的时候才会动手改。Agent跑完相关测试后,再创建并提交PR。

img

当Slack频道里出现漏洞报告时,**错误报告(Bug report triage)**自动化Agent会先瞅瞅是不是老问题,如果是新的,就通过Linear MCP建个工单。然后Agent钻进代码库里找根本原因,试着修复,最后回原来的帖子汇报处理结果。

美国企业管理平台Rippling有个叫Abhishek Singh的开发者,已经利用Cursor的自动化功能给自己搞了个私人助理。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
Singh会把一天下来的会议纪要、待办事项、任务清单还有Loom视频链接都甩到一个Slack频道里,然后设个定时任务Agent,每俩小时跑一次,读取这些内容,顺道关联上他的GitHub PR、Jira任务和Slack里提到的记录,把重复的信息剔除,最后整出一个清清爽爽的汇总看板。

他还用了个由Slack触发的自动化功能,直接从对话线程里创建Jira任务,把讨论总结同步到Confluence上。他们现在已经把这套自动化玩法扩展到了故障分诊、周报、值班交接这些场景里。

04.最后聊两句:AI编程进入全链路自动化时代,安全风险得防着点

就在今天,OpenAI给Codex装上了GPT-5.4,让它有了原生的计算机使用能力;Cursor这边则推出了面向全天候编程的自动化系统。这两家的动作意味着AI编程的应用场景已经延伸到了研发全链路自动化的地盘。这么一来,自动化能让编程过程效率大增,小团队也能爆发出大能量,未来的开发者可能更多是扮演AI Agent管理者的角色了。

不过,正如很多开发者担心的那样,AI Agent手里的权限越大,风险和责任的边界就越模糊。当Agent能自主写代码、合并PR、跑测试,甚至直接部署上线的时候,一旦它理解需求出了岔子,或者埋下了逻辑漏洞,成的损失和责任到底该算谁的?这恐怕是整个行业接下来必须直面的一道难题。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

Read more

从 0 到 1 玩转 ClaudeCode:Figma-MCP 前端代码 1:1 还原 UI 设计全流程

ClaudeCode 与 Figma-MCP 简介 ClaudeCode 是 Anthropic 推出的 AI 代码生成工具,擅长将设计稿转换为前端代码。Figma-MCP(Minimum Code Principle)指通过最小代码原则实现高保真 UI 还原,适用于 Vue/React 等现代框架。 环境准备 Figma 设计稿检查 * 确保设计稿使用 Auto Layout 布局,标注间距、字体、颜色等设计 Token。 * 导出必要的 SVG/PNG 资源,检查图层命名规范(如 btn_primary)。 开发环境配置 * 安装 Claude 插件或访问官方 Playground。 初始化前端项目(示例为 Vue3 + TypeScript)

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解

Qwen3-VL-WEBUI GPU配置:4090D最优算力方案详解 1. 引言 随着多模态大模型在视觉理解、语言生成和跨模态推理能力上的飞速发展,阿里云推出的 Qwen3-VL 系列模型已成为当前最具竞争力的视觉-语言模型之一。其最新版本不仅在文本与图像融合理解上达到新高度,更在视频分析、GUI代理操作、长上下文建模等方面实现了突破性进展。 对于开发者和研究者而言,如何高效部署并充分发挥 Qwen3-VL 的性能,成为落地应用的关键挑战。本文聚焦于 Qwen3-VL-WEBUI 的本地化部署实践,重点解析基于单张 NVIDIA RTX 4090D 显卡的最优算力配置方案,涵盖环境准备、资源调度、推理优化等核心环节,帮助用户以最低成本实现高性能多模态推理。 本方案适用于希望在消费级硬件上运行 Qwen3-VL-4B-Instruct 模型的开发者,尤其适合个人研究、原型开发和轻量级产品集成场景。 2. Qwen3-VL-WEBUI 核心特性与架构解析 2.1 模型能力全景 Qwen3-VL 是 Qwen 系列中首个真正意义上的“视觉代理”(Visual Agent),

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键

目录 【年终总结】从非科班无实习到准字节前端:我始终相信,开发之外的事,才是破局关键 一、求其外,善其内 1、坚持出发点正确的博文写作 2、博文更新对我心态的淬炼 3、社区交流对我视野的启发 4、向外拓展,反哺内修 二、陷入前端则前端死,跳出前端则前端活 1、从不务正业到泛前端 2、从泛前端到大前端,从有形到无形 三、秋招多少事 四、结语         作者:watermelo37         ZEEKLOG优质创作者、华为云云享专家、阿里云专家博主、腾讯云“创作之星”特邀作者、火山KOL、支付宝合作作者,全平台博客昵称watermelo37。         一个假装是giser的coder,做不只专注于业务逻辑的前端工程师,Java、Docker、Python、LLM均有涉猎。 --------------------------------------------------------------------- 温柔地对待温柔的人,包容的三观就是最大的温柔。

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40%

Qwen3-32B显存溢出?量化压缩部署实战让资源节省40% 你是不是也遇到过这种情况:好不容易找到一个性能强大的大模型,比如Qwen3-32B,结果一部署就发现显存不够用,直接报错“Out of Memory”?看着那动辄几十GB的显存需求,再看看自己有限的显卡资源,是不是感觉心都凉了半截? 别急着放弃。今天我就来分享一个实战技巧——通过量化压缩技术,让你在有限的硬件资源上,也能流畅运行Qwen3-32B这样的“大块头”。经过实测,这个方法能让模型显存占用减少40%以上,而性能损失却微乎其微。 1. 为什么Qwen3-32B会“吃”掉那么多显存? 在开始动手之前,我们先得搞清楚问题出在哪。Qwen3-32B是一个拥有320亿参数的庞然大物,它的“大”主要体现在两个方面: 1.1 参数规模带来的直接负担 模型参数越多,需要存储的数据量就越大。Qwen3-32B的320亿参数,如果都用32位浮点数(FP32)来存储,光是参数本身就需要大约128GB的存储空间。这还没算上推理过程中需要的中间计算结果(激活值)和优化器状态。 1.2 推理过程中的内存开销 模型在运行时,