写好提示词(Prompt)不仅是语文课,更是逻辑课。很多时候模型'不听话',不是因为它笨,而是我们触碰了它的'逆鳞'或盲区。以下是我在实战中总结出的 10 个'血泪坑',按优先级和痛点程度、出现频率排序:
一、越'禁止'越'反调' (The Negative Constraint Trap)
天坑:
满篇都是'不要…'、'禁止…'、'严禁出现…'。
为什么不行:
大模型注意力机制就是个叛逆的孩子(即'粉红大象效应')。当你反复强调'不要写复杂的词',模型的注意力反而被聚焦在'复杂'这个概念上,导致它更容易输出你禁止的内容。
避坑指南:
用正向指令替代负向约束。
- ❌ 错误: '不要写得太长,不要用复杂的句式。'
- ✅ 正确: '请保持简短,字数控制在 200 字以内,使用小学生都能看懂的简单短句。'

二、把 AI 当全知搜索引擎 (The Fact-Checker Fallacy)
天坑:
问它'今天北京天气怎么样?'或者'分


