【AIGC】Claude Code的三大模式

Claude Code 主要有三大核心权限/执行模式(默认、自动编辑、计划),以及思考强度模式危险模式等辅助模式。

一、三大核心执行模式(权限控制)

这是最常用的三种模式,控制 Claude 对文件与命令的自动化程度,可通过 Shift+Tab 循环切换。

1. 默认模式(Normal / Manual Approval)
  • 状态栏? for shortcuts
  • 行为每次文件编辑、命令执行前都需要你手动批准(Y/N/跳过)
  • 适用:学习阶段、不熟悉的项目、重要/敏感修改、需要精细控制
  • 特点:最安全、掌控感最强,但效率较低
2. 自动编辑模式(Auto-Accept / Accept Edits)
  • 状态栏accept edits on
  • 行为自动接受所有文件读写修改,但 Shell 命令仍需手动批准
  • 适用:信任 AI 的日常开发、批量生成/修改代码、写测试、生成样板代码
  • 特点:效率高,适合重复性、低风险任务
3. 计划模式(Plan Mode)
  • 状态栏plan mode on
  • 行为只读、不执行任何修改;先分析需求 → 生成详细执行计划(含步骤、文件、命令)→ 生成 plan.md → 你审核/修改后再执行
  • 适用:复杂功能开发、架构设计、数据库迁移、生产关键文件修改、需求梳理
  • 特点:安全可控、先规划后执行、减少返工、避免误操作

二、其他辅助模式

1. 思考强度模式(Thinking Modes)

控制推理深度,可在 VS Code 插件中切换:

  • Think:基础思考
  • Think Hard:深度推理
  • Think Harder:更深度分析
  • Ultrathink:极致深度(适合架构/复杂算法)
2. 危险模式(Dangerously Skip Permissions / YOLO Mode)
  • 命令claude --dangerously-skip-permissions
  • 行为完全跳过所有权限检查,自动执行所有文件修改与命令
  • 适用:仅用于完全信任的低风险任务(如修复 lint、生成 boilerplate)
  • ⚠️ 风险:极高,可能意外破坏代码,谨慎使用
3. Fast Mode
  • 作用:调整 API 配置,加快响应速度(非换模型)
  • 适用:交互式快速迭代、实时调试、快速实验
  • 注意:中途开启会按 Fast Mode 费率重新计费上下文

三、模式切换方式

  • 快捷键Shift+Tab 循环切换(默认 → 自动编辑 → 计划 → 默认)
  • 命令/plan 直接进入计划模式
  • VS Code:在插件设置中修改 Initial Permission Mode

Read more

告别 Copilot 时代:Cursor, Kiro 与 Google Antigravity 如何重新定义编程?

如果说 GitHub Copilot 开启了 AI 辅助编程的“副驾驶”时代,那么 2024-2025 年则是 AI Agent(智能体) 全面接管 IDE 的元年。 现在的开发者不再满足于简单的代码补全,我们需要的是能理解整个项目架构、能自主规划任务、甚至能像真人同事一样工作的“编程搭子”。 今天,我们盘点三款目前最受瞩目、处于风口浪尖的 AI 编程工具:Cursor、Kiro 以及 Google 的重磅新品 Antigravity。无论你是想提升效率,还是想尝鲜最前沿的 Agentic Workflow,这三款神器都不容错过。 1. Cursor:当下体验最好的 AI 代码编辑器 定位:目前最成熟、最流畅的 VS Code 替代者 Cursor

LLaMA Factory全解析:让大模型“改装”像组装电脑一样简单

引言:当每个人都能定制自己的专属AI 朋友们,想象一下这样的场景:你拿到了一台性能强大的通用电脑(好比ChatGPT、LLaMA这样的通用大模型),但它运行的是标准操作系统,装的是通用软件。现在,你需要它变成一台专业的视频剪辑工作站,或者一台金融数据分析服务器——该怎么办? 传统方法是“重装系统”(全量微调):耗时耗力,需要专业团队,而且可能把原来好用的功能搞坏。 现代方法是“加装专业配件”(参数高效微调):不改变核心系统,只增加特定的硬件模块或软件插件。 今天我要介绍的LLaMA Factory,就是大模型领域的“专业改装工具箱”。它让微调百亿参数的大模型,变得像给电脑加内存、装显卡一样简单可控。无论你是只有一张消费级显卡的个人开发者,还是需要定制企业级AI的团队,这个工具都可能改变你的工作方式。 技术原理:理解LLaMA Factory的“增效不增负”哲学 核心理念:为什么我们不需要“重装整个系统”? 要理解LLaMA Factory的价值,首先要明白大模型微调的一个关键发现:当大模型适应新任务时,只需要调整很小一部分参数就够了。 一个生动的类比: 假设你是一位精

远程配置 VsCode:Github Copilot 安装成功却无法使用?细节避坑

远程配置 VsCode 使用 GitHub Copilot 的避坑指南 当 Copilot 安装后无法正常使用时,常见问题集中在账户授权、网络环境、配置冲突三方面。以下是关键排查步骤和避坑细节: 一、账户授权问题(最常见) 1. 检查登录状态 * 在 VsCode 左下角点击账号图标 → 确认已登录 GitHub 账户 * 若显示 Sign in to use GitHub Copilot,需重新授权 * 避坑点:确保登录账户与 Copilot 订阅账户一致(个人版/企业版) * 选择 GitHub.com → 登录方式选 HTTPS → 完成设备授权流程 * 避坑点:企业用户需开启 SSO 授权(登录后执行 gh

Windows 10老电脑也能跑AI?手把手教你用llama.cpp部署7B模型(附中文优化技巧)

在老旧Windows设备上高效部署llama.cpp的完整指南 引言 对于许多AI爱好者和开发者来说,拥有一台高性能的GPU设备来运行大型语言模型往往是一种奢望。然而,随着llama.cpp这类优化框架的出现,即使是配置较低的Windows电脑也能流畅运行7B规模的模型。本文将详细介绍如何在资源有限的Windows环境下部署llama.cpp,并特别针对中文场景提供优化技巧。 1. 环境准备与工具安装 1.1 系统要求检查 在开始之前,请确保您的Windows设备满足以下最低要求: * 操作系统:Windows 10或更高版本(建议64位系统) * 内存:至少8GB RAM(16GB更佳) * 存储空间:至少20GB可用空间 * 处理器:支持AVX指令集的x86-64 CPU(大多数2013年后生产的CPU都支持) 提示:可以通过在PowerShell中运行systeminfo命令来查看系统详细信息。 1.2 必要工具安装 llama.cpp的编译需要以下工具链: 1. MinGW-w64:提供GCC编译器套件 2. CMake:跨平台构建系统 3