【AIGC】Claude Code的三大模式

Claude Code 主要有三大核心权限/执行模式(默认、自动编辑、计划),以及思考强度模式危险模式等辅助模式。

一、三大核心执行模式(权限控制)

这是最常用的三种模式,控制 Claude 对文件与命令的自动化程度,可通过 Shift+Tab 循环切换。

1. 默认模式(Normal / Manual Approval)
  • 状态栏? for shortcuts
  • 行为每次文件编辑、命令执行前都需要你手动批准(Y/N/跳过)
  • 适用:学习阶段、不熟悉的项目、重要/敏感修改、需要精细控制
  • 特点:最安全、掌控感最强,但效率较低
2. 自动编辑模式(Auto-Accept / Accept Edits)
  • 状态栏accept edits on
  • 行为自动接受所有文件读写修改,但 Shell 命令仍需手动批准
  • 适用:信任 AI 的日常开发、批量生成/修改代码、写测试、生成样板代码
  • 特点:效率高,适合重复性、低风险任务
3. 计划模式(Plan Mode)
  • 状态栏plan mode on
  • 行为只读、不执行任何修改;先分析需求 → 生成详细执行计划(含步骤、文件、命令)→ 生成 plan.md → 你审核/修改后再执行
  • 适用:复杂功能开发、架构设计、数据库迁移、生产关键文件修改、需求梳理
  • 特点:安全可控、先规划后执行、减少返工、避免误操作

二、其他辅助模式

1. 思考强度模式(Thinking Modes)

控制推理深度,可在 VS Code 插件中切换:

  • Think:基础思考
  • Think Hard:深度推理
  • Think Harder:更深度分析
  • Ultrathink:极致深度(适合架构/复杂算法)
2. 危险模式(Dangerously Skip Permissions / YOLO Mode)
  • 命令claude --dangerously-skip-permissions
  • 行为完全跳过所有权限检查,自动执行所有文件修改与命令
  • 适用:仅用于完全信任的低风险任务(如修复 lint、生成 boilerplate)
  • ⚠️ 风险:极高,可能意外破坏代码,谨慎使用
3. Fast Mode
  • 作用:调整 API 配置,加快响应速度(非换模型)
  • 适用:交互式快速迭代、实时调试、快速实验
  • 注意:中途开启会按 Fast Mode 费率重新计费上下文

三、模式切换方式

  • 快捷键Shift+Tab 循环切换(默认 → 自动编辑 → 计划 → 默认)
  • 命令/plan 直接进入计划模式
  • VS Code:在插件设置中修改 Initial Permission Mode

Read more

知网AIGC检测不通过?三步搞定降AI率

知网AIGC检测不通过?三步搞定降AI率

知网AIGC检测不通过?三步搞定降AI率 “我论文在知网AIGC检测里被判了52%的AI率,学校要求低于30%才能过,我该怎么办?” 最近几个月,这类求助在毕业生群里几乎天天都能看到。2026年的知网AIGC检测系统已经升级了好几轮,检测精度比去年高了不少,很多以前能蒙混过关的方法现在都不管用了。 但这不意味着没有办法。这篇文章,我把降知网AI率的方法浓缩成三个步骤,每一步都讲清楚具体该怎么操作。不绕弯子,直接上干货。 开始之前:了解知网AIGC检测的特点 要打败对手,先要了解对手。知网的AIGC检测与其他平台相比,有几个显著的特点: 检测颗粒度细:知网不仅给出全文的AI率,还会对每个段落甚至每个句子进行逐一判定。它的检测报告会用颜色标注每一段的AI概率——红色(高概率AI生成)、橙色(疑似AI生成)、绿色(人类写作)。 对学术文本更敏感:知网的训练数据包含大量学术论文,所以它对学术写作风格的AI特征识别得更准。那种一看就是AI写的"学术腔"文字,在知网面前特别容易露馅。 更新频率快:知网的检测模型会定期更新。上个月能过的文本,这个月不一定能过。所以不要依赖"据说有用

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程

llamafactory微调qwen3-vl详细流程 目标:本文讲详细介绍多模态大模型使用llama-factory进行多模态模型微调(sft)的全部流程,以及微调后合并和工业落地部署方案。具体包括: 1. 环境安装部署 2. 数据集准备 3. 启动微调 4. 模型合并 5. 模型部署和请求方式(vllm部署) 示例模型: qwen2.5-vl-instruct qwen3-vl-instruct 环境安装 llama-factory环境准备 方式1 git直接下载 git clone --depth https://github.com/hiyouga/LLaMA-Factory.git 方式2 下载项目压缩包再解压 python环境安装 1. python虚拟环境创建 * conda create --name llama_env python=3.12 (默认已安装好anaconda或者minianaconda) * conda

知网AIGC检测多少钱?各渠道价格对比和省钱攻略

知网AIGC检测多少钱?各渠道价格对比和省钱攻略

知网AIGC检测多少钱?各渠道价格对比和省钱攻略 毕业季一到,论文查重和查AI就成了绕不开的两座山。查重大家都比较熟悉了,但知网AIGC检测是这两年才铺开的新项目,很多同学对它的价格体系还不太清楚。 我去年帮几个学弟学妹查过知网AIGC,踩了不少坑,也摸索出了一些省钱的路子。今天把这些经验整理出来,希望能帮大家少花点冤枉钱。 知网AIGC检测的官方定价是多少? 先说结论:知网AIGC检测并没有一个面向个人用户的统一公开售价。 这和知网查重类似——知网的检测服务主要是面向机构(高校、期刊社)提供的,个人用户想用知网检测,通常需要通过第三方渠道。不同渠道的定价差异不小,这也是很多同学踩坑的原因。 目前市面上能查到的知网AIGC检测价格,大致分布在这个区间: 渠道类型价格区间(单篇)可靠性备注学校图书馆免费(限次)最高部分学校提供1-2次免费机会知网官方合作渠道80-150元高需确认是否为正规授权淘宝/拼多多店铺30-80元参差不齐低价店铺有报告造假风险第三方检测网站50-120元中等需辨别是否真的调用知网接口 学校免费次数用完了怎么办? 很多学校会给毕业生提供

丹摩智算平台部署 Llama 3.1:实践与体验

丹摩智算平台部署 Llama 3.1:实践与体验

文章目录 * 前言 * 部署前的准备 * 创建实例 * 部署与配置 Llama 3.1 * 使用心得 * 总结 前言 在最近的开发工作中,我有机会体验了丹摩智算平台,部署并使用了 Llama 3.1 模型。在人工智能和大模型领域,Meta 推出的 Llama 3.1 已经成为了目前最受瞩目的开源模型之一。今天,我将通过这次实践,分享在丹摩平台上部署 Llama 3.1 的实际操作流程以及我的个人心得。 部署前的准备 Llama 3.1 是一个资源需求较高的模型,因此在部署之前,首先要确保拥有合适的硬件环境。按照文档中的要求,我选择了 Llama 3.1 8B 版本进行测试。8B 模型对 GPU 显存的需求为