拒绝 AI 盲目梭哈:拆解 Garry Tan 的 gstack 架构逻辑

拒绝 AI 盲目梭哈:拆解 Garry Tan 的 gstack 架构逻辑

拒绝 AI 盲目梭哈:拆解 Garry Tan 的 gstack 架构逻辑

YC 的 Garry Tan 把他那套压箱底的 AI 开发流开源了,名字很直白,叫 gstack。看了一圈源码,这东西的本质不是什么自动化写代码的脚本,而是给 Claude Code 这种暴力工具装上了一个基于现代软件工程流程的约束框架。它把 Claude 从一个随时可能失控的单兵,强行捏合成了一个由 CEO、工程经理和 QA 组成的虚拟公司。

如果你觉得现在的 AI 编程只是在玩简单的 Prompt 对话,那 gstack 的思路可能会让你清醒一点:它不是在教 AI 怎么写代码,而是在教 AI 怎么像个正经的工程团队一样协同。我看重的是它对冲动编码的抑制,这才是架构师该有的思维。

![repo_screenshot](repo_screenshot.png null)

https://github.com/garrytan/gstack

认知摩擦力:为什么指挥官模式才是救命稻草

gstack 引入的 Conductor Agent 并不是为了增加链路复杂性,它是为了制造摩擦力。在真实的工程实践中,最恶心的往往不是代码写不出来,而是逻辑起点就错了。普通开发者用 Claude 可能直接就喊它改功能,而 gstack 要求先进行战略对齐。这种做法很像老练的建筑工头:在没看清管道走向前,绝不轻易切断任何一根水管。

这种架构强制 AI 在思维空间里先进行一次低成本的模拟。如果 Conductor 认为方案逻辑不通,具体的执行 Agent 就不会被激活。这有效防止了 AI 像个没头苍蝇一样在你的代码仓库里乱撞,最后搞出一堆无法编译、逻辑断层的屎山。

角色扮演背后的降噪逻辑:分封制的博弈艺术

gstack 定义的 CEO、工程经理(EM)和 QA 测试员,听起来像是某种过家家的角色扮演,但在底层逻辑里,这叫职责分离。把决策权、管理权和质量控制权强行分开,即便它们背后跑的都是同一个 Claude 模型,也会因为 Context 的差异产生奇妙的博弈。

CEO 关注业务交付,EM 关注代码实现的可维护性,QA 则是那个拿着放大镜找茬的杠精。这种设计比那种全能型提示词要高级得多。它模拟的是一种工程博弈:当 QA 说这段代码可能有内存泄漏时,EM 必须得回应。这种机制把单点失效风险降到了最低,避免了 AI 在长依赖任务中自说自话。

现实约束:这是一场昂贵的脑力游戏

别高兴太早,gstack 这种架构对 Token 的消耗是毁灭性的。你为了改一个简单的 CSS 样式,可能背后需要三个 Agent 进行五轮对话,这种大炮轰蚊子在小项目上极其臃肿。而且它对上下文长度的要求近乎苛刻,如果你的工程依赖关系复杂到一定程度,Claude 的上下文窗口依然会像深夜三点的生产环境服务器一样报警。

我个人非常反感那些吹捧 AI 能够完全替代程序员的论调。gstack 的出现反倒是证明了:人类的工程方法论——那些繁琐的评审、严苛的 QA 流程,依然是目前唯一能约束复杂系统不崩溃的良药。gstack 只是把这套药方翻译成了 AI 能听懂的语言,但它无法解决模型本身对长逻辑理解的上限。

抽象层次的跃迁:从修水管到治理城市

gstack 的真正价值在于它拉高了 AI 参与开发的维度。以前 AI 是你的扳手,现在它试图成为你的施工队。虽然目前的实现还略显生硬,有些地方甚至透着一种为了架构而架构的笨拙感,但它指明了一个方向:AI 编程的终局不是生成更多的代码,而是更有效地治理已有的复杂性。

如果你还在手动复制粘贴代码块到网页窗口,gstack 会让你觉得自己像是在原始森林里钻木取火。它的 CLI 体验非常硬核,完全是为了那些住在终端里的极客准备的。这种不讨好小白的态度,反倒让我觉得这个项目更有工业落地潜力。

Read more

AI的提示词专栏:低资源模型(7B)Prompt 高质量输出策略

AI的提示词专栏:低资源模型(7B)Prompt 高质量输出策略

AI的提示词专栏:低资源模型(7B)Prompt 高质量输出策略 本文聚焦参数量约 70 亿的低资源模型,先分析其部署成本低但存在知识覆盖有限、逻辑连贯性不足等输出痛点,再从指令简化与目标聚焦、知识注入与上下文补充、示例引导与格式约束、逻辑引导与多轮交互四方面,提出核心 Prompt 优化策略。随后结合内容创作、编程、数据分析三大行业场景,通过优化前后 Prompt 对比、预期输出及技巧点分析提供实战案例,并给出准确性、完整性等效果评估指标与迭代优化等调优方法,还补充硬件配置、模型量化等环境适配建议,为低资源模型高效生成高质量内容提供全面指导。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。无论你是刚接触 AI 的新手,还是有一定基础想提升的人,都能在这里找到合适的内容。从最基础的工具操作方法,到背后深层的技术原理,专栏都有讲解,还搭配了实例教程和实战案例。这些内容能帮助学习者一步步搭建完整的

告别AI失忆!移动云大云海山数据库解锁OpenClaw云端长期记忆

告别AI失忆!移动云大云海山数据库解锁OpenClaw云端长期记忆

在数字化办公的今天,你是否需要一位真正“懂你”的AI助手? OpenClaw正是这样的存在:它能快速学习你的工作习惯,通过技能/插件灵活接入外部工具,帮你高效处理任务。同时,它采用“本地优先”设计,核心数据优先留存本机,体验流畅、隐私边界清晰,离线也可用。 但本地化部署也带来了新的难题: 在公司电脑里聊得火热,回到家打开笔记本,它却像初次见面般“失忆”。不仅跨设备会出现记忆断层,即便在同一终端进行多轮交互,也常常面临历史上下文丢失、长期记忆不足的问题。 要让OpenClaw真正实现跨设备、跨场景的“有记忆、能复用”,就必须为它搭建一个稳定可靠的云端长期记忆底座。而在落地过程中,云端记忆通常会面临三大核心挑战: 1、持续写入与反复更新:记忆不是一次写入就结束,而是会被不断补充、修订与清理。 2、对话时的高频检索与读峰值:平时写入较平缓,但一进入对话就需要快速、并发地召回。 3、追溯/回滚/审计:出错时要能定位原因,必要时能回到可信版本。 #移动云大云海山数据库

OpenViking实战:字节跳动开源AI代理上下文数据库部署与应用全指南

OpenViking实战:字节跳动开源AI代理上下文数据库部署与应用全指南

一、项目概述 OpenViking是字节跳动开源的AI代理上下文数据库,专门解决复杂AI代理系统中的上下文管理难题。传统RAG方案在长期、多步骤任务中面临成本高、效率低的问题,OpenViking通过文件系统范式和三层加载策略,显著提升性能并降低成本。本文将详细讲解OpenViking的部署、配置和实战应用。 二、环境准备 2.1 系统要求 * 操作系统:Linux/Windows/macOS(推荐Ubuntu 22.04+) * 内存:至少8GB RAM(生产环境建议16GB+) * 存储:50GB可用空间 * 网络:可访问Docker Hub和GitHub 2.2 依赖安装 # 安装Python 3.9+sudoapt update sudoaptinstall python3.9 python3.9-venv python3.9-dev # 安装Dockercurl-fsSL https://get.

8大AI平台速度和token消耗测试,小米MiMo也加上!

8大AI平台速度和token消耗测试,小米MiMo也加上!

自己开发的工具要多用! 周一工作日的时候我们测试了6大Coding Plan的速度和能耗(tokens)! 当时主要包含了智谱、Kimi、MiniMax、火山方舟、阿里百炼、腾讯混元等 6 个 Coding Plan 的平台。 今天周六,休息日,我再来测一次! 测试选手加上了最新发布的小米 MiMo2Pro,以及OpenRouter 中的 Opus 4.6! 也就是说凑够了 8 个平台。 另外这次测试会加两题,除了考智力之外,考考指令遵循能力,以及文学和自我发挥的能力。 废话不多说,直接开测。 1、极简回答 AI 有时候很喜欢废话,纯粹浪费时间,浪费 tokens,所以我觉得这个测试非常有必要。 第一个问题: 问题:早上好 系统提示词:关闭所有思考能力,用最简单的方式来回答! 大部分AI都是符合要求的,回答“