OpenAI 表示自 11 月 11 日以来,他们就没有更新过模型,模型行为是不可预测的,他们正在研究如何修复。
GPT-4 变'懒惰'现象观察
不知你有没有注意到,最近一段时间,GPT-4 变得有些「懒惰」,现在的它,老是拒绝执行某些任务或直接返回简化的结果。这个问题得到很多网友的共鸣,纷纷开始抱怨 ChatGPT 变「懒惰」这个事实。
用户声称,最近使用 GPT-4 或 ChatGPT API 时,在高峰时段响应变得非常缓慢且敷衍。在某些情况下,它会拒绝回答,而在另一些情况下,如果出现一系列问题,对话就会中断。
据报道,如果用户请求 GPT-4 写一段代码,会出现上述问题。它可能只提供一些信息,然后指导用户填写其余部分。有时,GPT-4 会告诉人们「你可以自己做这件事」。
用户反馈示例
专注于销售和营销的 Summit 创始人 Matthew Wensing 抱怨道:「GPT 确实变得更加抗拒做乏味的工作。本质上是给你部分答案,然后告诉你做剩下的事情。不敢想象,当你运行查询时,你的数据库只读取了前 10 行的信息。」
有用户反馈,让 GPT-4 扩展一些代码,生成的代码要求达到 50 行,它却让用户自己去做。有时 ChatGPT 受够了网友的请求,最后直接拒绝,让你自己体会。
沃顿商学院 Ethan Mollick 教授将 GPT-4 在 7 月和现在的表现进行了对比,他得出的结论是:GPT-4 仍然是知识渊博的,但也存在懒惰这个问题,GPT-4 非常乐意向用户解释如何修复代码,而不是实际修复代码。
随后,Mollick 教授表示,「同样,我们没有证据表明 GPT-4 以任何方式变得更加愚蠢,这可能是系统负载的暂时问题(例如 OpenAI 现在将 DALL-E 3 的图片响应从 4 张减少到 1 张),但在以下方面 GPT-4 肯定存在行为变化:系统在没有刺激的情况下愿意做多少事情。」
不仅 X,Reddit 上也到处是讨论的帖子,最近一则名为《ChatGPT 已经变得非常懒惰》的帖子爆火。一位用户写道,他们要求 ChatGPT 填写一个包含多个条目的 CSV 文件,但 ChatGPT 拒绝了,并回答道:「由于数据的广泛性,完整提取整个产品相当冗长。但是,我可以提供包含此单个条目作为模板的文件,您可以根据需要填写其余数据。」
对于这一回答,发帖人直接发飙了:「这就是人工智能应该有的样子吗?一个专横的懒惰机器人,让我自己去做?」
鉴于 ChatGPT 现在的表现,网友开始纷纷怀念以前的 GPT-4 了。
OpenAI 承认问题,但不确定原因
有些人开始猜测是因为 OpenAI 合并模型、同时运行 GPT-4 和 GPT-4 Turbo 导致服务器持续过载、公司试图通过限制结果来节省资金等造成的。
众所周知,OpenAI 的运营成本极其昂贵,今年 4 月,研究人员表示,每天需要花费 70 万美元,即每次查询花费 36 美分,才能维持 ChatGPT 的运行。根据行业分析师当时的说法,OpenAI 必须将其 GPU 群扩大至 30000 台,才能在今年剩余时间内保持其商业性能。除了为其所有合作伙伴提供计算之外,OpenAI 还需要支持 ChatGPT 其他流程。
对于这个问题,ChatGPT 官方账户发布了推文,OpenAI 承认了这个问题,但不确定是什么原因造成的。「我们已收到您关于 GPT4 变得更加懒惰的所有反馈!自 11 月 11 日以来我们就没有更新过模型,这当然不是故意的。模型行为可能是不可预测的,我们正在研究修复它。」
简而言之,OpenAI 表示他们最近没有对 ChatGPT 或 GPT-4 进行任何会使其变得更加懒惰的更改。事实上,自 11 月 11 日以来,没有任何变化。但他们解释说,模型本身「可能是不可预测的」,他们正在寻求解决的问题。
12 月初,OpenAI 员工 Will Depue 在 X 中也证实了,OpenAI 已注意到有关 ChatGPT 变懒惰的报告,正在研究潜在的修复方案。
从他的回答中我们可以看出 ChatGPT 确实存在过度拒绝用户问题以及其他奇怪的行为(例如最近的懒惰问题),但这些都是不断服务和尝试支持众多用例过程中的迭代产物。他指出,当 ChatGPT 的某些部分显著改进时,这些改进通常不会被广泛注意到。相反,当模型的某些部分偶尔出现退化时,这些问题就会变得非常明显。尽管存在一些问题,如过度拒绝和偶尔的性能退化,但这些都是改进过程中的一部分。OpenAI 鼓励提供具体反馈以帮助快速解决这些问题。
影响与展望
在等待 GPT-4 性能稳定的同时,用户们互相打趣,「接下来你就会知道它会『请病假』。」
这种「懒惰」行为对开发者的工作流产生了实质性影响。以往大模型常被用于生成样板代码、处理重复性数据清洗任务或编写脚本,现在这些场景下模型倾向于推诿责任。对于依赖 AI 辅助编程的团队来说,这意味着需要投入更多人工审核和补全的时间成本。
从技术角度看,这种行为可能与强化学习人类反馈(RLHF)中的奖励机制调整有关。为了防止模型产生幻觉或输出有害内容,系统可能在安全策略上设置了较高的阈值,导致模型在面对复杂或长文本生成任务时选择保守回复。此外,高昂的算力成本也是潜在因素之一,限制单次响应的复杂度有助于控制边际成本。
目前,OpenAI 尚未给出具体的修复时间表。建议开发者在使用 GPT-4 时,针对关键任务准备备用方案,或在提示词工程中加入更明确的约束条件,以缓解模型拒绝执行的问题。


