【AIGC】Claude Code的三大模式

Claude Code 主要有三大核心权限/执行模式(默认、自动编辑、计划),以及思考强度模式危险模式等辅助模式。

一、三大核心执行模式(权限控制)

这是最常用的三种模式,控制 Claude 对文件与命令的自动化程度,可通过 Shift+Tab 循环切换。

1. 默认模式(Normal / Manual Approval)
  • 状态栏? for shortcuts
  • 行为每次文件编辑、命令执行前都需要你手动批准(Y/N/跳过)
  • 适用:学习阶段、不熟悉的项目、重要/敏感修改、需要精细控制
  • 特点:最安全、掌控感最强,但效率较低
2. 自动编辑模式(Auto-Accept / Accept Edits)
  • 状态栏accept edits on
  • 行为自动接受所有文件读写修改,但 Shell 命令仍需手动批准
  • 适用:信任 AI 的日常开发、批量生成/修改代码、写测试、生成样板代码
  • 特点:效率高,适合重复性、低风险任务
3. 计划模式(Plan Mode)
  • 状态栏plan mode on
  • 行为只读、不执行任何修改;先分析需求 → 生成详细执行计划(含步骤、文件、命令)→ 生成 plan.md → 你审核/修改后再执行
  • 适用:复杂功能开发、架构设计、数据库迁移、生产关键文件修改、需求梳理
  • 特点:安全可控、先规划后执行、减少返工、避免误操作

二、其他辅助模式

1. 思考强度模式(Thinking Modes)

控制推理深度,可在 VS Code 插件中切换:

  • Think:基础思考
  • Think Hard:深度推理
  • Think Harder:更深度分析
  • Ultrathink:极致深度(适合架构/复杂算法)
2. 危险模式(Dangerously Skip Permissions / YOLO Mode)
  • 命令claude --dangerously-skip-permissions
  • 行为完全跳过所有权限检查,自动执行所有文件修改与命令
  • 适用:仅用于完全信任的低风险任务(如修复 lint、生成 boilerplate)
  • ⚠️ 风险:极高,可能意外破坏代码,谨慎使用
3. Fast Mode
  • 作用:调整 API 配置,加快响应速度(非换模型)
  • 适用:交互式快速迭代、实时调试、快速实验
  • 注意:中途开启会按 Fast Mode 费率重新计费上下文

三、模式切换方式

  • 快捷键Shift+Tab 循环切换(默认 → 自动编辑 → 计划 → 默认)
  • 命令/plan 直接进入计划模式
  • VS Code:在插件设置中修改 Initial Permission Mode

Read more

Windows 使用 Codex 一直“正在思考”?一招解决 AI 工具代理问题(附一键切换脚本)

📚 目录 一、问题背景:Codex 一直“正在思考”却没有回答 二、第一步:查看本机代理端口 三、第二步:测试代理是否可用 四、第三步:给 Codex App 配置代理 五、让 Codex 代理配置生效 六、验证代理是否生效 七、如何取消代理配置 八、代理配置是否会影响国内软件 九、开发者推荐的代理配置方式 十、完整流程总结 一、问题背景 最近在 Windows 上使用 Codex 时遇到了一个很奇怪的问题: 输入问题后,界面一直显示: 正在思考 但是 没有任何回答。 最开始以为是: * Codex Bug * API Key

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

医疗AI中的马尔科夫链深度应用与Python实现(2026年版)

核心应用场景 马尔科夫模型在医疗健康领域的应用核心在于其处理时序与状态转移的能力,尤其适用于以下几类具有明确阶段性的临床与管理问题: 1. 疾病进展建模:量化慢性病(如糖尿病、心血管疾病、慢性肾病)在不同临床分期之间的转移风险,为早期干预提供依据。 2. 治疗决策优化:在考虑治疗效果、副作用、成本及患者偏好的多维度下,模拟不同治疗策略的长期结局,辅助制定个性化方案。 3. 生存分析与预后预测:动态评估患者的生存概率或特定终点事件(如复发、再入院)发生风险,随时间更新预测。 4. 医疗资源需求预测:基于患者群体的状态流模型,预测未来不同科室(如ICU、康复病房)的床位、设备及人力需求。 实战示例:构建糖尿病进展预测模型 以下是一个基于模拟数据的糖尿病进展马尔科夫模型构建框架,展示了从数据到模拟的核心流程。 import numpy as np

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

【OpenClaw:本地模型】16、OpenClaw + Ollama集成——私有化部署LLM,零成本运行AI智能体

零成本运行AI智能体:OpenClaw+Ollama本地私有化部署完全指南 告别API账单,让AI真正属于你自己——数据隐私+零Token成本+离线可用 引言:为什么需要本地模型? 在OpenClaw的生态中,模型是AI的“大脑”。无论是GPT-4还是Claude,云端大模型虽然强大,但存在三个无法回避的问题: 1. 成本居高不下:一个中等规模的团队,每月API费用轻松超过$500 2. 隐私风险:敏感代码、商业文档、个人数据必须上传到厂商服务器 3. 网络依赖:断网环境AI直接“罢工” OpenClaw + Ollama的组合正是为解决这些问题而生。Ollama作为轻量级本地大模型管理工具,能将Llama、Qwen等开源模型部署在你的电脑上,让OpenClaw彻底摆脱云端依赖,实现本地推理、数据私有化、零Token成本的全闭环体验 。 本地部署模式 用户指令 OpenClaw网关 本地Ollama Llama/Qwen 返回结果 零成本 数据留在本地 云端部署模式 用户指令