Claude Code 背后的秘密:这套免费课程让我看懂了 AI Agent

Claude Code 背后的秘密:这套免费课程让我看懂了 AI Agent

大家好,我是悟鸣。(微信公众号:悟鸣AI

图片

很多朋友都在问两个问题:

  1. 想系统学习 Agent 原理,但不知道从哪里开始。
  2. 已经在用 Claude Code,但想搞清楚它背后的机制。

今天这篇就推荐一个很适合入门到进阶的开源项目:learn-claude-code


这个项目解决了什么问题?

图片

它把“会用工具”和“理解原理”之间的鸿沟补上了:

  • 不只讲概念,而是从最小可运行循环开始。
  • 每一课只增加一个机制,学习路径清晰。
  • 代码能跑、过程可观察、原理可追踪。
图片

GitHub 仓库地址:https://github.com/shareAI-lab/learn-claude-code


先看最小循环:Agent 是怎么“动起来”的

图片

这是 AI Coding Agent 的最小循环。生产级 Agent 会在此基础上叠加策略、权限和生命周期管理。

LLM 本身只能生成文本,但编程任务需要与真实世界交互(读写文件、运行命令、搜索代码)。 这个循环的作用是让 LLM 能够:

  • 判断何时需要调用工具
  • 调用工具并获取结果
  • 基于结果继续推理和执行

12 节课怎么设计?

图片

项目提供了 12 节循序渐进的课程:从简单循环到隔离化自动运行。每节课只增加一个机制,并配一句“格言”。

编号

格言

解释

s01

One loop & Bash is all you need

一个工具 + 一个循环 = 一个智能体

s02

加一个工具,只加一个 handler

循环不用动,新工具注册进 dispatch map 就行

s03

没有计划的 agent 走哪算哪

先列步骤再动手,完成率翻倍

s04

大任务拆小,每个小任务干净的上下文

子智能体用独立 messages[],不污染主对话

s05

用到什么知识,临时加载什么知识

通过 tool_result 注入,不塞 system prompt

s06

上下文总会满,要有办法腾地方

三层压缩策略,换来无限会话

s07

大目标要拆成小任务,排好序,记在磁盘上

文件持久化的任务图,为多 agent 协作打基础

s08

慢操作丢后台,agent 继续想下一步

后台线程跑命令,完成后注入通知

s09

任务太大一个人干不完,要能分给队友

持久化队友 + 异步邮箱

s10

队友之间要有统一的沟通规矩

一个 request-response 模式驱动所有协商

s11

队友自己看看板,有活就认领

不需要领导逐个分配,自组织

s12

各干各的目录,互不干扰

任务管目标,worktree 管目录,按 ID 绑定

这 12 课的关键价值在于:循环框架基本不变,你看到的是“能力层层叠加”的过程。


怎么跑起来?(CLI 实操)

git clone https://github.com/shareAI-lab/learn-claude-code cd learn-claude-code pip install -r requirements.txt cp .env.example .env  # 编辑 .env 填入你的 ANTHROPIC_API_KEY python agents/s01_agent_loop.py                  # 从这里开始 python agents/s12_worktree_task_isolation.py     # 完整递进终点 python agents/s_full.py                           # 总纲:全部机制合一
图片

这个项目是可运行的 Coding Agent 简化实现,需要配置你自己的 API Key,才能观察完整交互过程。

图片

为什么要 cp .env.example .env

  • .env.example 是模板文件,可以提交到仓库。
  • .env 通常在 .gitignore 中,会在 Git 推送时被忽略。
  • 这样能避免 API Key 泄露。
图片

所以,把你的密钥和配置写进 .env 即可。

如果运行时报错,优先检查环境变量是否配置正确。多数初始问题都来自这里。

跑通脚本后,你可以直接在终端里和智能体对话;一边跑、一边看源码,理解速度会快很多。


再用 Web 可视化加深理解

图片

CLI 适合实操,Web 页面更适合建立整体认知。项目提供了交互式可视化、分步动画、源码查看器,以及每节课的配套文档。

cd web && npm install && npm run dev  # http://localhost:3000
图片

命令执行后,在浏览器打开对应地址即可进入学习页面。

每节课都能看到动画演示、学习材料、模拟过程和源码,还能进一步做深入探索。

图片

你可以在这个交互页面按章节学习,也可以回到终端直接和对应章节的 Agent 对话。

图片

每个章节都明确标注了相对前一章的变化点,这对建立“演进视角”非常有帮助。

图片

从智能体循环、TODO 子智能体,到 Skills、任务系统、上下文压缩、Agent 团队、自主协作与用户隔离,这套内容覆盖得很完整。


总结

图片

如果你想真正理解 AI Agent 的工作原理,而不只是停留在“会用工具”,这个项目是很好的切入点:

  • 循序渐进:12 节课,每节只加一个机制,学习负担可控。
  • 可运行代码:不是纸上谈兵,代码能跑、能调试、能改。
  • 可视化学习:交互式页面把抽象循环变得可感知。
  • 生产级思维:任务拆分、上下文管理、多 Agent 协作都贴近真实系统设计。

无论你是想从零搭建一个 Agent,还是想深入理解 Claude Code 这类工具背后的设计逻辑,这个项目都值得系统过一遍。

仓库地址:https://github.com/shareAI-lab/learn-claude-code

觉得有帮助的话,记得给作者点个 Star ⭐


欢迎关注我的公众号:悟鸣AI,持续分享比较有用的 AI 工具和比较好的 AI 经验,比较客观理性的 AI 观点等。

Read more

被严重低估的 AI 编排神器:Claude Code 全栈精通指南,开启 AI Agent 原生开发时代

被严重低估的 AI 编排神器:Claude Code 全栈精通指南,开启 AI Agent 原生开发时代

2026 年,生成式 AI 已经彻底告别了 “单轮对话式聊天工具” 的初级阶段,正式迈入AI 编排时代。行业的核心矛盾,早已从 “AI 能不能写代码、生成内容”,变成了 “能不能让 AI 自主完成端到端的复杂工作流、管理全链路的业务流程”。 在这场范式革命中,Anthropic 推出的 Claude Code,是最被低估、同时也是最具颠覆性的 AI Agent 产品。就连 Anthropic 创始人 Dario Amodei 都对其倾注了大量心血 —— 它彻底打破了传统大模型 “对话窗口” 的边界限制,把 AI 从一个你需要反复提问的 “助手”,变成了一个能横跨你整个工作流、自主执行、深度协同的 “全能团队成员”。 本文将基于完整的 Claude Code 能力体系,

非科班转码者的AI学习路径:从0到1

非科班转码者的AI学习路径:从0到1 前言 大家好,我是第一程序员(名字大,人很菜)。作为一个非科班转码、正在学习Rust的萌新,最近我开始学习AI。今天我想分享一下我作为非科班转码者的AI学习路径,希望能帮助到和我一样的同学。 一、非科班转码者学习AI的挑战 1.1 基础薄弱 作为非科班转码者,学习AI面临以下挑战: * 数学基础:AI涉及线性代数、微积分、概率论等数学知识 * 编程基础:需要掌握Python等编程语言 * 计算机基础:需要了解计算机系统、数据结构等基础知识 * 领域知识:需要了解AI的基本概念和术语 1.2 学习资源选择 市场上的AI学习资源琳琅满目,如何选择适合自己的资源是一个挑战: * 入门门槛:有些资源过于理论化,难以理解 * 实践机会:缺乏实际项目经验 * 学习路径:不知道从哪里开始,如何进阶 二、从0到1的AI学习路径 2.1 第一阶段:基础准备(1-2个月)

Superpowers 与 gstack 深度解析:AI Coding Agent 的技能驱动与角色驱动架构对比

Superpowers 与 gstack 深度解析:AI Coding Agent 的技能驱动与角色驱动架构对比

我认真拆解了 Superpowers 和 gstack:它们都在重塑 AI 编程,但走的是两条完全不同的路 过去一年,AI 编程工具最大的变化,不是模型更强了,而是大家逐渐意识到一件事: 真正决定 AI 写代码质量的,往往不是模型本身,而是你如何组织它的工作方式。 也就是说,问题已经从“用哪个模型”慢慢转向了: * 怎么让 AI 不要一上来就胡乱写代码? * 怎么让它先想清楚需求、边界、测试和设计? * 怎么让它像一个靠谱的工程团队,而不是一个情绪不稳定的实习生? 最近两个很有代表性的开源项目,正好走了两条不同但都很值得研究的路径: * obra/superpowers:把 AI 编程流程建立在 skills(技能) 之上,强调可组合、可复用、可自动触发的工程化工作流。官方将它定义为“一个基于可组合 skills 的完整软件开发工作流”。 * garrytan/gstack:把

【用AI学Agent】Agent入门前置:大模型基础(开发向)

【用AI学Agent】Agent入门前置:大模型基础(开发向)

首先欢迎大家点进文章,其次 申明:本系列内容是作者通过AI学习Agent得到的内容,如若有错误之处,欢迎批评指正 很多想入门AI Agent开发的朋友,例如我,第一步就被“大模型”的各种概念绕晕——上下文窗口、Token、温度、思维链,这些到底是什么?和Agent有什么关系? 其实不用慌,Agent的核心是“让AI自主做事”,而大模型(LLM)就是Agent的“大脑”——不懂大脑的工作原理,后续学RAG、工具调用、Agent架构都会很吃力。 这篇博客专门为Agent学习者打造,包含开发中能直接用到的大模型基础知识点,从“是什么”到“怎么用”,帮你夯实Agent入门的第一块基石。 一、大模型(LLM)到底是什么? * 很多人对大模型的理解有误区,觉得它“无所不能”,能像人一样思考、理解世界; * 也有人觉得它“只是个问答机器人”,没必要深入学习。 其实这两种想法都不对。 用最通俗的话讲: