Cursor 3来了:内置Codex,前端福音Design Mode,WorkTree多开

Cursor 3来了:内置Codex,前端福音Design Mode,WorkTree多开

Cursor 3来了:内置Codex,前端福音Design Mode,WorkTree多开

用Cursor这种编辑器,经常遇到两个小痛点:一是他就一个聊天框,如果一个任务时间长一点,侧边栏就被占用,就没法干别的;二是害怕 Agent “一顿操作猛如虎”,直接把当前的主干分支改坏。

刚刚发布的 Cursor 3,重点就在解决这类工作流层面的问题。总体来看,它好像不太满足于做一个带对话窗的编辑器,而是在加强多任务并行和代码环境的安全隔离。

具体有三个最直接影响日常开发的新特性:

1. Agents Window:跑并行的任务控制台

快捷键Cmd+Shift+P 输入 Agents Window

以前的对话基本是一个单向的线性流。Cursor 3 将 Agent 抽离出了独立的面板区,你可以跨仓库、跨环境(本地、云端或远程 SSH)同时运行多个任务。

配合新增的 Agent Tabs,你可以在并排或网格视图下查看多个对话。
功能背后的思路很直白:让 AI 编程从“一次等一件事”变成“同时派发几个需求”。遇到修改范围大、耗时长的场景,把它丢在 Agents Window 里跑,自己切回主编辑器继续写代码,两边不会互相打扰。

你可能会问,这和在编辑器里装一个 Codex Plugin(或其它第三方 AI 侧边栏)有什么区别?

区别在于原生环境的接管深度底层任务编排能力

像 Codex Plugin 重点是打包复用单个工作流(比如一套 GitHub Code Review 加发布流程);而 Cursor 3 的 Agents Window 直接把自己变成了全局控制台。它不仅局限于“读写当前打开的文件”,还能直接接管 Git 底层机制(分配独立 Worktree、对比代码状态),并在多个并行的仓库(Multi-repo)间穿梭。如果你觉得过去的插件就像是装了个带对话框的侧边栏,那这次的 Agents Window 就是直接在编辑器里给你配了一个能跑多个项目的“带队经理”。

2. Git Worktree:物理隔离保护你的主干代码

触发方式:在对话区使用 /worktree/best-of-n 命令

过去让 Agent 操作大范围重构,它直接在你的当前文件上动刀。一旦它中途跑偏或者中断,人工去恢复或清理中间报错的代码非常头疼。

新加入的 /worktree 指令利用了 Git 原生特性提供了一个物理隔离方案:强制让 Agent 的改动全在一个独立的 Git Worktree 里跑,且全面支持多个仓库(Multi-repo)联动。这意味着即使项目包含好几个微服务或者不同的包,Agent 也可以在一个干净的“平行宇宙”里大刀阔斧地改。在这个沙盒里,无论它怎么折腾怎么卡顿,都不会弄乱你当前工作区里正在写的半成品代码,验证靠谱后再一键 Merge 即可。

顺着这个逻辑,Cursor 3 顺势把 /best-of-n 也移进了新的 Agent 窗口。你可以直接让几个不同的大模型,在各自隔离的 Worktree 里并行处理同一个需求。跑完之后像裁判一样直观对比 outcomes 结果,哪个模型写的顺眼就合并哪个,相当于发起了多场并行的“代码竞标”。

3. Design Mode:用框选代替语言描述

快捷键:在 Agents 窗口里按 Cmd+Shift+D 切换,Shift + 拖拽 选中页面区域,Cmd+L 添加到对话。

如果你写过前端,会知道用语言描述 UI 问题费时费力。比如“让导航菜单右数第二个蓝色登录按钮向下对齐2像素”,这种描述给到 Agent,它还得去猜对应的 CSS Class 和 DOM 层级。

Design Mode 允许你直接在浏览器里像使用截图软件一样,框选并提取特定界面元素。选好区域后用 Cmd+L 直接“指”给 Agent 看就行,免去了无穷无尽的口舌。对于开发者而言,这也额外治好了一个顽疾:当系统通过脚本自动点击网页 DOM 元素经常失效跑偏时,直观的视觉框选比猜前端 class 结构要准太多了。

(注:不仅是 Design Mode 加了基于截图定位的备选方案,这次更新对底层浏览器 Agent 也做了一波减法。官方严格收窄了它的工具权限,强制它专注于纯粹的浏览器操作,这能大幅减少之前它在网页里乱点导致的跑偏和报错死循环。)

4. 生态与性能细节扫除盲点

除了上面这三个大件,还有几个值得普通开发者留意的细节提升:

  • MCP 支持结构化输出(Structured Content):当你让 Agent 调用外部 MCP 接口或者 App 时,它现在能接收和解析出更富媒体、结构更清晰的数据。
  • 大文件 Diff 渲染变流畅了:以前只要 Agent 生成或比对几十上百行的长代码,编辑器必卡。这次更新重写了长文件比对,内存占用大幅缩减。
  • 过往聊天记录直接参与搜索:现在用到 At-mention(@ 提及)时,你的历史对话也会出现在搜索结果里,用来捞以前解决过的老 Bug 非常省事。

总结

Cursor 3 并没有一味追求所谓“更强”的模型噱头,而是回归到了人机交互的工程细节。

开个自带隔离环境的 Worktree,哪怕把最复杂的脏活丢给它,也不怕它把你正在写的状态干碎。如果遇到不好形容的样式 Bug,直接用 Design Mode 框选出来也就完事了。

如果你曾经也被 Agent 一顿乱改搞炸过本地分支,光是冲着能放开手脚瞎折腾的 Worktree,就值得立刻去升个级试一把。

Read more

Stable Diffusion:使用自己的数据集微调 Stable Diffusion 3.5 LoRA 文生图模型

Stable Diffusion:使用自己的数据集微调 Stable Diffusion 3.5 LoRA 文生图模型

Stable Diffusion:使用自己的数据集微调 Stable Diffusion 3.5 LoRA 文生图模型 * 前言 * 环境要求 * 相关介绍 * 微调 Stable Diffusion 3.5 LoRA 文生图模型 * 下载Stable Diffusion 3.5 LoRA Fine-Tuning项目 * Windows * Linux * 准备数据集 * metadata.jsonl,内容如下。 * 下载预训练模型 * Hugging Face * Model Scope * 进行训练 * 输出结果 * 进行预测 * 输出结果 * 参考 前言 由于本人水平有限,难免出现错漏,敬请批评改正。更多精彩内容,可点击进入Python日常小操作专栏、OpenCV-Python小应用专栏、YOLO系列专栏、自然语言处理专栏、

GitHub Copilot性能优化实战:如何提升15%的AI代码建议响应速度

GitHub Copilot性能优化实战:如何提升15%的AI代码建议响应速度 【免费下载链接】copilot-codespaces-vscodeDevelop with AI-powered code suggestions using GitHub Copilot and VS Code 项目地址: https://gitcode.com/GitHub_Trending/co/copilot-codespaces-vscode GitHub Copilot作为AI编程助手,在处理复杂代码建议时偶尔会遇到响应延迟问题。通过系统性的性能优化策略,我们成功将AI代码建议的响应速度提升了15%,让开发者享受更流畅的编程体验。 问题根源:为什么Copilot会变慢? 在日常开发中,很多开发者反映Copilot在以下场景中响应速度明显下降: * 大型项目:代码库文件数量超过1000个时 * 复杂语法:使用TypeScript泛型、React Hooks等高级特性 * 多文件上下文:需要分析多个相关文件才能给出准确建议 性能瓶颈主要出现在代码解析和上下文分析阶段,特别是在处理

Z-Image i2L体验:无需联网的AI绘画神器

Z-Image i2L体验:无需联网的AI绘画神器 前言 你有没有过这样的困扰:想用AI画张图,却要反复刷新网页、等待队列、担心提示词被记录、害怕生成内容被平台留存?或者更糟——刚输入“我的产品设计草图”,系统就弹出“该请求可能涉及敏感内容”? Z-Image i2L不是又一个云端API调用工具,它是一台真正属于你的AI画室:关上笔记本盖子,拔掉网线,打开软件,输入一句话,几秒后高清图像就静静躺在本地文件夹里。没有服务器日志,没有用户行为追踪,没有生成次数限制——只有你、你的GPU,和一段完全可控的创作过程。 本文将带你完整走一遍Z-Image i2L的本地部署、参数调优与真实创作体验,不讲抽象原理,只说“怎么让这张图更好看”。 1. 为什么需要一台“离线AI画室” 1.1 隐私不是可选项,而是底线 当AI绘画工具要求你上传参考图、保存历史记录、绑定手机号甚至分析你的Prompt习惯时,你交出去的不只是文字描述,还有创作意图、业务方向甚至商业机密。某电商设计师曾反馈:“用在线工具生成‘

解决下载慢问题:国内可用的Stable Diffusion和LLaMA模型镜像站清单

国内可用的Stable Diffusion和LLaMA模型镜像站清单:高效解决下载慢问题 在AI生成内容(AIGC)迅速普及的今天,越来越多开发者、设计师和研究人员开始尝试本地部署Stable Diffusion或微调LLaMA这类大模型。但一个现实问题始终困扰着国内用户——模型下载太慢了。 你有没有经历过这样的场景?打开Hugging Face准备下载一个7GB的SDXL基础模型,进度条爬得比蜗牛还慢,半小时才下完一半,结果网络一断,前功尽弃。更别提训练LoRA时需要频繁拉取不同版本的基础权重,这种体验简直让人崩溃。 这背后的原因并不复杂:主流模型大多托管在境外平台(如Hugging Face、Replicate),而原始文件动辄数GB甚至数十GB,加上跨境链路不稳定、DNS污染、限速等问题,直接导致国内直连下载效率极低,严重拖慢了从环境搭建到实际训练的整体节奏。 好在社区早已意识到这个问题,并催生出一批高质量的国内模型镜像站点。它们通过在国内服务器缓存常用模型文件,提供HTTPS加速链接,极大提升了获取效率。配合LoRA这类轻量化微调技术,如今我们完全可以在消费级显卡上完成