Cursor版OpenClaw来了,AI全天写代码修Bug,程序员危了!

Cursor版OpenClaw来了,AI全天写代码修Bug,程序员危了!

还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

Cursor搞了个“养龙虾”的新花样,让AI一天24小时连轴转,自动帮你评审、监控代码,顺手还能把Bug修了。

img

开发者梦寐以求的顶配“AI龙虾”助手,这回真来了?

3月6号智东西那边传来的消息,就在今天凌晨,Cursor官宣了个新东西——Cursor Automations,跟OpenClaw的功能很像。这玩意儿能让AI全天候待命,自动帮开发者盯着代码库,审核、监控、修补一条龙服务,甚至连研发流程都能帮着打理。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

有了这个功能,开发者只要把Agent配置好,它们就能盯着代码库持续优化,这简直就是搭建了一个完全自动化的“软件流水线”。而且,所有这些自动化的活儿都是由云端Agent来驱动的,它们用自己的算力去搞定构建、测试,还能给你演示干了啥。

RRecallAI的学习工具创始人Atlasis打趣说,照这么演变下去,“以后咱们只要当个厉害的机器人饲养员就行了”。还有个哥们儿说,他用OpenClaw跑了几个月全天候在线的Agent,Cursor能把这功能直接塞进IDE里,确实挺机智。甚至有人惊呼,这也太疯狂了,Cursor这是要变身OpenClaw🦞的节奏啊。因为OpenClaw的Logo和名字都跟龙虾沾边,所以用它来搭Agent助手,大家就戏称为“养龙虾”。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

这些Agent不仅能按开发者设定的定时任务跑,还能被各种事件触发,比如发条Slack消息、新建个Linear工单、合并GitHub PR,或者PagerDuty报警了都行。当然,开发者也能通过Webhook自己搞点自定义的触发事件。

现在Cursor官网已经摆出了一堆现成的自动化Agent,像什么修复CI故障、每天汇报变更总结、找漏洞、写文档之类的,一共12个。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

至于大家关心的钱的问题,Cursor AI的教育负责人Lee Robinson在答疑时透了个底:这些云端Agent和编辑器里消耗的是同一种token,只要你是Ultra订阅用户,就能享受这待遇。

img

不过,也有开发者对这种自动化Agent的安全性心里打鼓:万一Agent在大半夜三点钟自作主张合并了个补丁,结果把生产环境搞崩了,这锅谁来背?毕竟这些自主Agent是根据触发条件自己改代码,全程也没个人看着。

img


还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

01.靠自动化给力,代码评审、监控和维护效率起飞

随着编程Agent越来越火,每个程序员产出的代码量是上去了,但审代码、盯监控和维护的效率却没跟上。

Cursor方面表示,这次更新就是想借着自动化的东风,把开发生命周期里这些环节的效率也给提上去,实现规模化。

一旦被调用,自动化Agent就会启动一个云端沙箱,按照开发者设定好的MCP协议和模型去执行指令,完事儿还会自己检查输出结果对不对。

而且,Agent还能利用记忆工具,从以前干过的活儿里吸取教训,越用越顺手,越用越精准。

过去这几个礼拜,研究人员在Cursor自家的代码库里跑了不少自动化Agent,大概摸索出了两类最实用的场景:代码评审与监控(Review and monitoring)以及日常杂活处理(Chores)
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

02.24小时自动审、盯、修,Cursor自己内部都在用这三大Agent

在审查和监控这块儿,自动化功能特别适合用来评审代码变更,像什么代码风格不一样、格式乱了、有安全漏洞或者性能变差了,它都能发现并修好。

Cursor自家的自动化代码审查Agent叫Bugbot,只要有PR创建或者更新,它就开工,每天得跑个几千次,上线到现在已经揪出了数百万个漏洞。

这次新增的自动化功能,让开发者能针对不同场景定制各种评审Agent。下面这三种就是Cursor内部目前正在用的:

安全审查(Security review):这个自动化Agent会在每次代码推送到主干分支时自动干活。它能花更多时间去深挖那些隐蔽的、细节上的毛病,还不会卡住PR流程。

它会专门审计代码差异里的安全漏洞,自动跳过那些在PR里已经讨论过的问题,然后把发现的高风险问题发到Slack上。Cursor透露,这套自动化机制在他们内部已经抓到了好几个安全漏洞和严重缺陷。

智能代码责任人(Agentic codeowners):这个Agent会在每次PR创建或代码推送的时候,根据改动范围、复杂程度以及对基础设施的影响来给风险分个级。

风险低的PR直接自动审核通过;风险高的嘛,它会根据贡献历史,分配最多两个审核人员去把关。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
而且,它所有的决策结果都会汇总到Slack里,并通过MCP记录到Notion数据库,这样开发者回头就能审计Agent的行为,顺便优化一下指令。

事件响应(Incident response):一旦PagerDuty报警,这个自动化Agent就被触发了,立马启动一个Agent,通过Datadog MCP去查日志,看看代码库最近有啥变更。

接着,它会在Slack频道里给值班工程师发消息,带上监控信息和一个包含修复方案的PR,这样能帮开发者省下不少响应故障的时间。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

img

03.自己找Bug,每天一早汇报,每周推送重要变更

研究人员发现,自动化这东西,对于处理日常琐事和需要把不同工具信息拼凑起来的知识型工作,那也是相当好用。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
变更每周汇总(Weekly summary of changes):有个自动化Agent专门负责每周在Slack上发简报,把代码库过去7天的大动作汇总一下,重点展示那些已经合并的主要PR、Bug修复、欠的技术债、安全问题以及依赖更新。

img

测试覆盖范围(Test coverage):这个Agent每天大清早会爬起来审查最近合并的代码,看看哪块儿需要补充测试覆盖。它会照着项目现有的规矩写测试,只有在必须要动生产代码的时候才会动手改。Agent跑完相关测试后,再创建并提交PR。

img

当Slack频道里出现漏洞报告时,**错误报告(Bug report triage)**自动化Agent会先瞅瞅是不是老问题,如果是新的,就通过Linear MCP建个工单。然后Agent钻进代码库里找根本原因,试着修复,最后回原来的帖子汇报处理结果。

美国企业管理平台Rippling有个叫Abhishek Singh的开发者,已经利用Cursor的自动化功能给自己搞了个私人助理。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。
Singh会把一天下来的会议纪要、待办事项、任务清单还有Loom视频链接都甩到一个Slack频道里,然后设个定时任务Agent,每俩小时跑一次,读取这些内容,顺道关联上他的GitHub PR、Jira任务和Slack里提到的记录,把重复的信息剔除,最后整出一个清清爽爽的汇总看板。

他还用了个由Slack触发的自动化功能,直接从对话线程里创建Jira任务,把讨论总结同步到Confluence上。他们现在已经把这套自动化玩法扩展到了故障分诊、周报、值班交接这些场景里。

04.最后聊两句:AI编程进入全链路自动化时代,安全风险得防着点

就在今天,OpenAI给Codex装上了GPT-5.4,让它有了原生的计算机使用能力;Cursor这边则推出了面向全天候编程的自动化系统。这两家的动作意味着AI编程的应用场景已经延伸到了研发全链路自动化的地盘。这么一来,自动化能让编程过程效率大增,小团队也能爆发出大能量,未来的开发者可能更多是扮演AI Agent管理者的角色了。

不过,正如很多开发者担心的那样,AI Agent手里的权限越大,风险和责任的边界就越模糊。当Agent能自主写代码、合并PR、跑测试,甚至直接部署上线的时候,一旦它理解需求出了岔子,或者埋下了逻辑漏洞,成的损失和责任到底该算谁的?这恐怕是整个行业接下来必须直面的一道难题。
还没有一台OpenClaw云服务器?点此即可享一键秒级部署。
手把手教你一键部署OpenClaw,1分钟搞定!
可视化面板快速接入QQ、企微、飞书、钉钉等IM应用,同时支持海外Discord、WhatsApp、Telegram、iMessage等应用。

Read more

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统

DeepSeek-R1-Distill-Llama-8B实战:快速搭建智能问答系统 1. 模型介绍与优势 DeepSeek-R1-Distill-Llama-8B是一个经过知识蒸馏优化的推理模型,它在保持较小参数规模的同时,具备了强大的语言理解和生成能力。这个8B参数的模型在性能和计算资源消耗之间找到了很好的平衡点,特别适合需要快速响应和高效推理的智能问答场景。 这个模型基于DeepSeek-R1的先进技术,通过蒸馏过程将大模型的知识压缩到更小的架构中。这意味着你可以在普通的硬件环境下运行它,而不需要昂贵的专业设备。对于想要搭建智能问答系统的开发者来说,这无疑是个好消息——你既不需要担心模型太大跑不动,也不用担心效果不够好。 在实际测试中,DeepSeek-R1-Distill-Llama-8B在多个基准测试中都表现不错。特别是在数学推理、代码生成和一般问答任务上,它的表现可以媲美一些更大的模型。这使它成为搭建智能问答系统的理想选择,无论是用于教育辅导、技术支持还是日常问答,都能提供可靠的服务。 2. 环境准备与快速部署 2.1 系统要求与依赖安装 在开始之前,确保你

Cogito-v1-preview-llama-3B部署教程:免配置镜像快速上手Ollama环境

Cogito-v1-preview-llama-3B部署教程:免配置镜像快速上手Ollama环境 1. 什么是Cogito v1预览版模型 Cogito v1预览版是Deep Cogito推出的混合推理模型系列,这个3B参数的模型在大多数标准基准测试中都表现出色,超越了同等规模的其他开源模型。无论是LLaMA、DeepSeek还是Qwen等知名模型的同类版本,Cogito v1都展现出了更强的能力。 Cogito模型是经过指令调优的生成式模型,采用文本输入和文本输出的方式。最重要的是,所有模型都以开放许可发布,这意味着你可以放心地在商业项目中使用它们。 这个模型的独特之处在于它的混合推理能力。它既可以像标准大语言模型那样直接回答问题,也可以在回答前进行自我反思和推理,这种双重模式让它能够处理更复杂的问题场景。 2. 模型特点与技术优势 2.1 核心技术创新 Cogito模型采用了迭代蒸馏和放大(IDA)训练策略,这是一种通过迭代自我改进来实现智能对齐的高效方法。简单来说,就是让模型在学习过程中不断优化自己,变得越来越聪明。 模型在多个关键领域都进行了专门优化:编程代

2026新手小白AI创业变现指南(二)- AI写作辅助平台

2026新手小白AI创业变现指南(二)- AI写作辅助平台

刚刚更新了2026新手小白AI创业变现指南l列表,新增加了测试过的炼字工坊、蛙蛙写作、笔杆平台(学术论文平台,非通用写作平台)。想简单介绍下,详情请点击2026新手小白AI创业变现指南(一)中平台列表中平台名称看详细介绍。 一、炼字工坊 平台基础信息 项目内容平台名称炼字工坊官方网址https://lianzigongfang.com平台介绍专为网文/剧本/漫剧作者设计的AI创作平台,帮你把精力花在“故事和表达”上,把重复、耗时、卡壳的部分交给AI。相比通用AI,炼字工坊在长篇稳定性上有明显优势。它用「问答+抽卡」帮你定题材卖点,用「设定库」自动归档世界观和角色,用「分层大纲」把控剧情节奏,用「续写润色」解决卡文问题。最重要的是:你的作品不会用于AI训练,版权完全归你。核心定位长篇创作的全流程辅助,从灵感、设定到续写、润色,让你专注创作本身。 🎯 它和通用AI(如DeepSeek、千问)

解决下载慢问题:国内可用的Stable Diffusion和LLaMA模型镜像站清单

国内可用的Stable Diffusion和LLaMA模型镜像站清单:高效解决下载慢问题 在AI生成内容(AIGC)迅速普及的今天,越来越多开发者、设计师和研究人员开始尝试本地部署Stable Diffusion或微调LLaMA这类大模型。但一个现实问题始终困扰着国内用户——模型下载太慢了。 你有没有经历过这样的场景?打开Hugging Face准备下载一个7GB的SDXL基础模型,进度条爬得比蜗牛还慢,半小时才下完一半,结果网络一断,前功尽弃。更别提训练LoRA时需要频繁拉取不同版本的基础权重,这种体验简直让人崩溃。 这背后的原因并不复杂:主流模型大多托管在境外平台(如Hugging Face、Replicate),而原始文件动辄数GB甚至数十GB,加上跨境链路不稳定、DNS污染、限速等问题,直接导致国内直连下载效率极低,严重拖慢了从环境搭建到实际训练的整体节奏。 好在社区早已意识到这个问题,并催生出一批高质量的国内模型镜像站点。它们通过在国内服务器缓存常用模型文件,提供HTTPS加速链接,极大提升了获取效率。配合LoRA这类轻量化微调技术,如今我们完全可以在消费级显卡上完成