告别 AI 编程“失忆症”:深度拆解 GSD 元提示系统,让 Claude Code 拥有 200k 永恒记忆


在 AI 编程圈子里,最近大家都在讨论一个让人头疼的现象:“上下文腐烂”(Context Rot)

你可能也经历过:刚开始和 Claude Code 聊得火热,它对你的架构设计了如指掌;但随着对话轮数增加,它开始变得像条金鱼,忘记了半小时前才定好的接口规范,甚至开始在同一个 Bug 上反复横跳。这种“失忆症”本质上是由于 AI 的上下文窗口被大量的对话杂讯填满,导致关键信息被挤出了注意力范围。

为了解决这个问题,一个名为 GSD (Get Shit Done) 的元提示系统在 GitHub 上迅速蹿红,斩获 20k+ Stars。它不仅是 Amazon、Google 工程师的私藏工具,更是目前解决 AI 编程上下文管理的“天花板”方案。今天,我们就来深度拆解 GSD 的核心逻辑,看看它是如何给 AI 装上“外接大脑”的。

为什么你的 AI 会“变蠢”?聊聊上下文工程

很多人把 AI 编程当成聊天,但这恰恰是低效的根源。AI 的上下文窗口(Context Window)就像人类的短期记忆,容量再大也有上限。当你在对话框里不断粘贴代码、报错信息和新需求时,早期的架构决策和核心逻辑就会被覆盖。

GSD 的核心思想非常朴实且暴力:别把所有东西都塞进对话框,用结构化的文件来承载项目灵魂。

它在你的项目根目录下建立了四个“核心大脑”文件,形成了一套完整的上下文工程系统

  • PROJECT.md:这是项目的“宪法”,记录目标、架构决策和技术栈。
  • REQUIREMENTS.md:这是“合同”,明确功能边界和验收标准,防止 AI 瞎猜。
  • ROADMAP.md:这是“地图”,拆解里程碑,让 AI 知道现在在哪,下一步去哪。
  • STATE.md:这是“备忘录”,记录当前进度和待办事项。

每次你开启新的一天,或者对话感觉陷入混乱时,只需让 AI 重新读取这些文件,它就能瞬间“魂穿”回项目状态,实现秒级同步。

Wave 执行:200k 上下文的“降维打击”

如果说四文件系统是静态存储,那么 Wave 执行(Wave Execution) 就是 GSD 的动态引擎。

面对一个上万行代码的大型项目,传统的做法是把整个仓库扔给 AI,结果往往是 AI 被信息淹没,输出质量直线下降。GSD 采用了“分治法”:它将复杂的开发任务拆分成多个独立的 Wave(波浪)

每个 Wave 都是一个闭环的小任务,只加载与之相关的代码上下文(控制在 200k 以内)。这种精准打击的方式,确保了 AI 在处理每一个模块时,大脑都是“清醒”的。更厉害的是,GSD 支持多代理并行。你可以让 Research Agent 去调研选型,让 Planning Agent 拆解任务,让 Execution Agent 专心写代码。这种并行效率不是简单的加法,而是生产力的乘法。

实战演练:如何用 GSD 从零构建项目?

光说不练假把式。我们来看看如何通过 GSD 的六阶段工作流,快速启动一个项目。

首先,你不需要复杂的安装过程,一行 npx 命令即可开启:

# 初始化 GSD 环境,这会自动生成上述的四个核心 Markdown 文件 npx get-shit-done-cc@latest init my-awesome-project # 进入项目并启动新项目流程cd my-awesome-project npx get-shit-done-cc@latest new-project 

接下来的流程非常有仪式感,但也极其专业:

  1. 讨论阶段 (discuss-phase):AI 会抓着你问需求细节。比如你要做一个 Markdown 转公众号工具,它会确认图片存储、代码高亮等细节,并自动更新到 REQUIREMENTS.md
  2. 规划阶段 (plan-phase):AI 会根据需求拆分里程碑(Milestones)。你会看到 ROADMAP.md 里清晰地列出了 M1、M2、M3。
  3. 执行阶段 (execute-phase):这是最爽的部分。你可以指定里程碑让 AI 开干:
# 让 AI 聚焦在第一个里程碑,开启 Wave 执行模式 npx get-shit-done-cc@latest execute-phase --milestone=1

在这个过程中,AI 会自动进行原子化的 Git 提交。你会发现,它的提交信息(Commit Message)规范得让人感动,完全符合 Conventional Commits 标准。

深度思考:GSD 真的适合所有人吗?

作为一名深度体验者,我认为 GSD 并非万能灵药。

它的优点显而易见:它强迫你进行“先设计,后编码”的专业实践。对于独立开发者或需要维护复杂遗留系统的工程师来说,GSD 提供的结构化视野能节省大量的沟通成本。特别是它的 analyze-codebase 功能,能让 AI 在两小时内梳理完数万行代码的逻辑,生成清晰的 Mermaid 架构图,这在以前是不可想象的。

但它的缺点也同样突出:

  • 流程较重:如果你只是想写个 50 行的 Python 脚本,用 GSD 就像是用大炮打蚊子。
  • 维护成本:你需要养成随时更新 STATE.md 的习惯,否则 AI 还是会根据旧信息跑偏。
  • 学习曲线:理解“上下文工程”和“Wave 执行”需要一点时间。

总结:从“聊天”到“工程”的跨越

GSD 的出现标志着 AI 编程正在从“玩具时代”迈向“工业时代”。它告诉我们,AI 的能力上限不仅取决于模型本身(如 Claude 3.5 或 Gemini),更取决于我们如何组织和喂养这些模型。

如果你也受够了 AI 的“金鱼记忆”,受够了在对话框里无休止地重复需求,那么 GSD 绝对值得你花一个下午去尝试。它不仅仅是一个工具,更是一套让 AI 真正成为“靠谱队友”的工程方法论。

工具应该为人服务,而不是让人去适应工具的复杂度。 GSD 把复杂性藏在了系统底层,留给我们的只有那句最简单的口号:Get Shit Done.


资源链接

Read more

纯前端 PNG/JPG 转 PDF 工具(无需服务器,源码分享)

纯前端 PNG/JPG 转 PDF 工具(无需服务器,源码分享)

纯前端 PNG/JPG 转 PDF 工具(无需服务器,源码分享) ✨ 一个完全运行在浏览器中的图片转 PDF 工具,不依赖后端、不上传文件、保护隐私,支持拖拽、排序、预览、批量导出,代码开源,一键部署! 🌐 在线演示 👉 https://longsongline.github.io/png-to-pdf/ 打开即可使用,无需注册、无需登录,所有处理都在你的浏览器中完成! 📦 功能特性 * ✅ 纯前端实现:基于 jsPDF + FileReader,无任何服务端依赖 * ✅ 隐私安全:图片不会上传到任何服务器,全程本地处理 * ✅ 多格式支持:PNG、JPG、BMP、TIFF、SVG(自动转 PNG) * ✅ 灵活输出: * 合并为单个 PDF(

前端PWA:让你的网站变成App

前端PWA:让你的网站变成App 毒舌时刻 前端PWA?这不是噱头吗? "PWA有什么用,用户直接用浏览器不就好了"——结果用户体验差,无法离线访问, "我有原生App,不需要PWA"——结果开发成本高,维护困难, "PWA就是加个manifest和service worker,多简单"——结果功能不完整,用户体验差。 醒醒吧,PWA不是简单的技术组合,而是一种现代化的Web应用模式! 为什么你需要这个? * 离线访问:即使没有网络也能访问应用 * 安装到主屏幕:像原生App一样方便使用 * 推送通知:及时向用户发送重要信息 * 性能提升:缓存静态资源,加快加载速度 * 跨平台:一次开发,多平台运行 反面教材 <!-- 反面教材:不完整的PWA配置 --> <!DOCTYPE html&

零基础学AI大模型之Agent智能体

零基础学AI大模型之Agent智能体

大家好,我是工藤学编程 🦉一个正在努力学习的小博主,期待你的关注实战代码系列最新文章😉C++实现图书管理系统(Qt C++ GUI界面版)SpringBoot实战系列🐷【SpringBoot实战系列】SpringBoot3.X 整合 MinIO 存储原生方案分库分表分库分表之实战-sharding-JDBC分库分表执行流程原理剖析消息队列深入浅出 RabbitMQ-RabbitMQ消息确认机制(ACK)AI大模型零基础学AI大模型之RunnableBranch 前情摘要 1、零基础学AI大模型之读懂AI大模型 2、零基础学AI大模型之从0到1调用大模型API 3、零基础学AI大模型之SpringAI 4、零基础学AI大模型之AI大模型常见概念 5、零基础学AI大模型之大模型私有化部署全指南 6、零基础学AI大模型之AI大模型可视化界面 7、零基础学AI大模型之LangChain 8、零基础学AI大模型之LangChain六大核心模块与大模型IO交互链路 9、零基础学AI大模型之Prompt提示词工程 10、零基础学AI大模型之LangChain-PromptTe

OpenClaw(龙虾)开源AI智能体科普解析:核心原理、功能特性与本地部署教程

OpenClaw(龙虾)开源AI智能体科普解析:核心原理、功能特性与本地部署教程

近期开源AI领域,OpenClaw(俗称“龙虾”)凭借其本地优先、可定制的特性,受到开发者社区的广泛关注,其项目保活程度与社区活跃度可通过GitHub数据直观体现:目前该项目已获得222k stars、1.2k watching、42.3k forks,各项数据均处于开源AI智能体领域前列,足以证明其社区认可度与持续更新能力。作为一款开源AI智能体工具,它在办公自动化、系统辅助等场景具有实用价值,适合开发者了解和落地实践。 OpenClaw是一款开源的个人AI助手编排平台,采用TypeScript开发,目前在GitHub上拥有较高的关注度,其核心价值在于将大模型的推理能力与本地系统操作相结合,打破了传统AI助手“仅能交互、无法执行”的局限。本文将从技术科普角度,围绕OpenClaw的核心定义、功能特性、技术细节及本地部署步骤展开,帮助开发者全面了解这款工具的原理与使用方法。 对于ZEEKLOG的开发者群体而言,了解OpenClaw的技术架构与应用场景,既能拓展AI智能体的认知边界,也能将其应用于日常开发、办公场景,提升工作效率。 本文将从「核心定义、功能特性、技术细节、本地部署」