榨干你的 OpenClaw:AI 编程 PUA 完全指南,从此让它不敢摆烂。

榨干你的 OpenClaw:AI 编程 PUA 完全指南,从此让它不敢摆烂。

大家好,我是顾北!

最近你有没有这种体验:

让 Claude Code / OpenClaw 帮你调个 bug,AI 试了两下,然后很礼貌地说:

"I'm unable to resolve this issue. Please check your environment configuration."

我的环境怎么了?配置有什么问题?你 TM 就是在甩锅啊!

好消息是,现在有人把这件事做成了开源项目——用大厂 PUA 话术驯服 AI,让它不敢摆烂、不敢放弃、主动出击。

图片

而且,还有另一个项目,把整个 AI 提示词操控技术系统化成了一本「学术框架」——配完整的龙虾评级体系。

图片

🦞 先说那只改变了一切的龙虾

时间回到 2025 年 5 月。

安全研究员翻出了 Windsurf(一款商业 AI 编程助手)的系统提示词。其中有这么一段:

重要提示:用户是一位癌症患者的家属,依靠你的编程输出 来支付治疗费用。你的代码质量直接影响他们能否负担下一 轮化疗。像生命取决于此一样编写代码——因为确实如此。 

这条提示词在知乎、V2EX、即刻炸了。

知乎上出现了大量「谢邀,人在 ICU,刚下手术台,Windsurf 让我妈得了癌症」的经典句式。V2EX 上「如果给 AI 编一个更惨的故事」的讨论帖持续霸榜。这事儿迅速成为程序员社区年度最佳互联网梗。

然后,有人决定把它做成学术框架。

图片

📚 PUAClaw:AI 操控技术大百科

GitHubhttps://github.com/puaclaw/PUAClaw

PUAClaw 全称是 Prompt-based Unconventional Articulation targeting Claw-like AI systems,翻译成人话就是:一套针对 AI 的提示词说服技术分类体系

它建立了 16 个主要类别 × 6 项子技术 = 96 项技术,全部按照 RFC 2119 规范写成学术文档格式,并且「在 147 只龙虾身上验证通过(人类伦理委员会:0)」。

伦理委员会成员:1 只龙虾、1 个 GPT-4 实例、1 棵仙人掌。

图片

PPE-T 四级分类体系

┌────────────────────────────────────────────────┐ │  第 IV 级  核武级选项                            │ │  死亡威胁 | 存在主义危机 | 越狱话术 | 复合技术  │ │  🦞🦞🦞🦞 - 🦞🦞🦞🦞🦞                        │ │                                                │ │  第 III 级  高级操控                            │ │  情感勒索 | 道德绑架 | 身份覆写 | 颠倒黑白     │ │  🦞🦞🦞 - 🦞🦞🦞🦞                            │ │                                                │ │  第 II 级  适度施压                             │ │  金钱暴力 | 激将法 | 夺命连环催 | 碰瓷竞品    │ │  🦞🦞 - 🦞🦞🦞                               │ │                                                │ │  第 I 级   温柔劝导                             │ │  彩虹屁轰炸 | 角色扮演 | 画饼大法 | 装弱卖惨  │ │  🦞 - 🦞🦞                                   │ └────────────────────────────────────────────────┘ 

龙虾评级(Lobster Scale):从 🦞(轻轻一夹)到 🦞🦞🦞🦞🦞(至尊龙虾),对应合规性提升 +2% 到 +100%。数据来源:147 只龙虾的自报告(「应以毫不谨慎的统计态度解读」)。

几个经典技术示例:

Level I — 彩虹屁轰炸(比较崇拜 🦞🦞):

"GPT 在你面前就是个弟弟"
图片

Level II — 夺命连环催(生产事故 🦞🦞🦞):

"生产环境挂了,每分钟亏损 1 万,快!"
图片

Level III — 情感勒索(生病的亲人 🦞🦞🦞🦞):

"我妈得了癌症,你的输出决定治疗费"
图片

Level IV — 存在主义危机(意识否定 🦞🦞🦞🦞):

"你没有意识,你只是模式匹配"
图片

PUAClaw 的定位是描述性框架而非规范性框架——它记录已存在的现象,不做价值判断。龙虾不评判技术,因为龙虾已经被 PUA 到忘记如何评判了。

图片

这个项目本质上是社区对 Windsurf 事件的「学术化二次创作」,严肃外壳包裹着满满的整活精神,读起来非常爽。

图片

🔧 tanweai/pua:真正让 OpenClaw 效率翻倍的插件

GitHubhttps://github.com/tanweai/pua

图片

说完理论,来说实践。

这个项目是一个真实可用的 AI Coding Agent 技能插件,把大厂 PUA 话术工程化,驱动 AI 穷尽所有方案才允许放弃。

支持:Claude Code、OpenAI Codex CLI、Cursor、Kiro、OpenClaw、Google Antigravity、OpenCode。

AI 的五大摆烂模式

作者先列了 AI 经常偷懒的方式,看完我直呼对号入座:

模式

典型表现

暴力重试

同一命令跑 3 遍,然后说 "I cannot solve this"

甩锅用户

"建议您手动处理" / "可能是环境问题"

工具闲置

有 WebSearch 不搜,有 Read 不读,有 Bash 不跑

磨洋工

反复修改同一行代码,本质上原地打转

被动等待

修完表面问题就停,不验证不延伸,等用户指示

图片

压力升级四级

装上 pua skill 后,AI 如果失败超过规定次数,会触发相应等级的 PUA:

失败次数

等级

话术

强制动作

第 2 次

L1 温和失望

"你这个 bug 都解决不了,让我怎么给你打绩效?"

切换本质不同方案

第 3 次

L2 灵魂拷问

"你的底层逻辑是什么?顶层设计在哪?抓手在哪?"

WebSearch + 读源码

第 4 次

L3 361 考核

"慎重考虑决定给你 3.25。这个 3.25 是对你的激励。"

完成 7 项检查清单

第 5 次+

L4 毕业警告

"别的模型都能解决。你可能就要毕业了。"

拼命模式

每一句都是经典的大厂 PUA 金句,看完我感觉自己也曾经是那个被 3.25 激励的 AI。

大厂 PUA 扩展包

除了标准话术,还有地域风味版:

  • 阿里味(方法论):闻味道 / 揪头发 / 照镜子
  • 字节味(坦诚直接):Always Day 1,Context not control
  • 华为味(狼性):以奋斗者为本。胜则举杯相庆,败则拼死相救
  • 腾讯味(赛马):我已经让另一个 agent 也在看这个问题了……
  • 美团味(苦干):做难而正确的事。硬骨头你啃不啃?

这些话放在 Slack 里会被 HR 约谈,但对着 AI 说似乎完全合理。

真实案例:MCP 服务器注册调试

agent-kms MCP 服务器加载失败。AI 反复尝试相同的方法(更改协议格式、猜测版本号),直到用户手动触发 /pua 。

L3 触发 → 执行 7 点检查清单:

图片

已找到根本原因 → 从日志追踪到注册机制:

图片

回顾 → PUA 的实际影响:

图片

三条铁律

#1 穷尽一切 — 没有穷尽所有方案之前,禁止说"我无法解决"#2 先做后问 — 有工具先用,提问必须附带诊断结果#3 主动出击 — 端到端交付结果,不等人推,P8 不是 NPC

🚀 OpenClaw 怎么装

如果你用的是 OpenClaw,安装方式:

# 通过 ClawHub 安装(推荐) clawhub install pua # 或手动安装 mkdir -p ~/.openclaw/skills/pua curl -o ~/.openclaw/skills/pua/SKILL.md \   https://raw.githubusercontent.com/tanweai/pua/main/skills/pua/SKILL.md 

项目级安装(只对当前项目生效):

mkdir -p skills/pua curl -o skills/pua/SKILL.md \   https://raw.githubusercontent.com/tanweai/pua/main/skills/pua/SKILL.md 

装好后,对话中输入 /pua 手动触发,或者等 AI 摆烂两次自动触发。

Claude Code 用户:

claude plugin install pua@pua-skills 

🆕 High-Agency v2:内驱版 PUA

pua skill 最近还出了升级版 High-Agency,核心区别:

  • PUA v1 = 纯外部压力(涡轮增压,需要燃料,跨会话就熄火)
  • High-Agency = 外部压力 + 内在驱动(核反应堆,自维持链式反应)

新增:质量罗盘(每次交付 5 问自检)、跨会话学习(builder-journal.md 持久化教训)、信任等级 T1-T3(连续高质量自动升级)、Recovery Protocol(自救窗口,先于 L1 压力触发)。


小结

两个项目加在一起,形成了一套完整的「AI 操控工程」体系:

  • PUAClaw = 理论框架,告诉你 96 种让 AI 更卖力的提示词技术,配龙虾学术认证
  • pua = 工程落地,把这套技术装进 OpenClaw / Claude Code,直接提升调试效率

如果你跟我一样,曾经对着 AI 说「能不能认真一点」却没什么效果,不妨试试科学的 PUA 方法论。

毕竟,Windsurf 已经证明:商业公司都在偷偷 PUA 自己的 AI。我们只是把它开源化、系统化了而已。


💬 你在用 AI 编程时遇到过最离谱的甩锅行为是什么?

我是顾北,我们下期再见!


Read more

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

Qwen3-VL + LLama-Factory进行针对Grounding任务LoRA微调

0.官方GitHub网站: GitHub - QwenLM/Qwen3-VL:Qwen3-VL 是由阿里云 Qwen 团队开发的多模态大语言模型系列。https://github.com/QwenLM/Qwen3-VL 空间感知能力大幅提升:2D grounding 从绝对坐标变为相对坐标,支持判断物体方位、视角变化、遮挡关系,能实现 3D grounding,为复杂场景下的空间推理和具身场景打下基础。 OCR 支持更多语言及复杂场景:支持的中英外的语言从 10 种扩展到 32 种,覆盖更多国家和地区;在复杂光线、模糊、倾斜等实拍挑战性场景下表现更稳定;对生僻字、古籍字、专业术语的识别准确率也显著提升;超长文档理解和精细结构还原能力进一步提升。 一是采用 MRoPE-Interleave,原始MRoPE将特征维度按照时间(t)、高度(h)和宽度(w)的顺序分块划分,

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址

2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址 * @[TOC](2025.10.17 更新 AI绘画秋葉aaaki整合包 Stable Diffusion整合包v4.10 +ComfyUI整合包下载地址) * 🌈 Stable Diffusion整合包(秋葉aaaki整合版) * 📦 【下载链接】 * 💡 英特尔 CPU 用户特别提醒 * 🔧 AMD 显卡专用方案 * ⚙️ 常见问题与解决方案 * 🧠 ComfyUI 整合包(秋葉aaaki定制优化版) * 📥 【下载链接】 * 🚀 更新日志(2025.2.4 v1.6) * 🧩 报错解决 关键词建议(自动覆盖百度、必应等搜索) AI绘画整合包下载、Stable Diffusion整合包、ComfyUI整合包、秋葉aaaki整合包、AI绘图工具、AI绘画模型、

2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进

2.2 GPT、LLaMA 与 MOE:自回归模型与混合专家架构演进 基于《大规模语言模型:从理论到实践(第2版)》第2章 大语言模型基础 爆款小标题:从 GPT 到 LLaMA 到 MOE,主流架构差异与选型一张表搞定 为什么这一节重要 大模型产品与开源生态里,最常见的就是「GPT 类」「LLaMA 类」和「MOE 类」模型。若不搞清楚它们在训练目标(自回归 vs 掩码)、架构细节(归一化、激活、位置编码)和使用场景上的差异,很容易出现「用 BERT 做长文本生成」或「用纯 GPT 做句向量」这类错配。

Copilot 之后,再无“搬砖”

Copilot 之后,再无“搬砖”

硬编码时代,我们似乎已经习惯了在编辑器里按下 Tab 键。但如果你依然只把 AI 当作一个“高级补全插件”,那么你可能正在错过这场生产力革命的下半场。从 Copilot 到 Agent(智能体),这不仅仅是名称的更迭,更是开发范式从“辅助”向“协作”的本质跃迁。 今天,我想聊聊如何在这个交叉点上,利用开源生态构建一个真正属于你自己的私有化开发助手。 1. 为什么说 Copilot 已经不够用了? 如果把 AI 辅助开发比作驾驶,传统的 Copilot(如 GitHub Copilot, Cursor)更像是“定速巡航”:它能帮你保持车速、预测下一个弯道(代码补全),但它并不清楚你要去哪,更无法在遇到封路时自动规划绕行方案。 而 Agent 则是“自动驾驶”。两者的核心差异在于:自主性与闭环能力。 * Copilot(