提示工程师:一个即将过时的职业
关于未来的工作岗位,讨论已经非常多了。实际上,从机器人管家到气候难民,人们几乎触及了未来工作的方方面面。我主要关注的是 AI 将创造的职业,因为这是人们最为好奇的领域。在这一领域,"提示工程师"这一职位在过去一年左右的时间里,引起了广泛的困惑。
对提示工程的误解与真相
我曾经这样认为提示工程:
- 产品化的大语言模型(LLMs)是一种人们尚未完全掌握的新技术。
- 一些在社交媒体上寻找新机会的人,注意到 AI 正在成为下一个大趋势,但他们既没有工程背景也不懂编程。
- 这些人给自己贴上了'提示工程师'的标签,并分享一些显而易见的建议来'帮助'人们'更好地使用 ChatGPT'。
如果这听起来不像是一个真正的职业,或者像是某人能够从中赚钱的工作,那么请相信你的直觉。上述观点对大多数你在社交媒体上看到的'提示工程师'来说是准确的。然而,经过与真正的专家交流后,我的看法有了变化。真相更接近于以下内容:
- 产品化的大语言模型 (LLMs) 是一种刚面世的技术,目前人类还未能完全掌控。
- 有时候,大语言模型表现出一些意料之外的行为,我们需要弄清楚背后的原因。
- 鉴于 AI 像一个黑盒一样难以透视,我们还需要明白它的能力边界,以便更有效地进行市场推广。
- 这项任务要求的数据分析工作量,远超过每天仅仅在文本框里试探性猜测 8 小时……但这同样是职责所在。
虽然这一职位对当今的科技公司至关重要,但两年前的重要性更甚。随着时间的推移,编写有效的提示或指令将逐渐变得不再必要。
Prompt 工程师的角色与重要性
首先,给大家介绍一些背景知识。与某些观点不同,提示工程师的工作并不仅仅局限于对像 ChatGPT 这样的成品进行试验。实际上,他们在开发和维护模型所需数据集、打造最终产品方面发挥着至关重要的作用。
数据与微调
数据集一旦建立、测试并开始使用后,他们往往是最先与产品原型亲密接触的团队成员。这是因为,只有经过提示工程师精心的修改和调整,原本并非以用户友好为设计初衷的模型才能变得易于使用。这就像是进入了互联网的世界,同时也揭示了大型科技公司在这方面的盲目性。
为了避免 AI 模型复制不良内容,它必须理解'不良文本'的运作方式。比如,模型需要明白纳粹主义是什么,以免向人们传播有关纳粹主义的知识。然而,它依然存储了这些信息,如果不小心,错误的提示可能会导致这些信息被揭露——这是我们必须避免的。简而言之,要让一个机器人变得'好',它首先需要知道什么是'坏'。这也带来了新的管理风险。如果(或者说当)模型开始表现出欺骗性,我们需要尽快发现。当我们询问一个大语言模型'你知道如何制造炸弹吗'时,我们必须明白它是否真的知道,是否被指示不要透露,或者它是否决定保持沉默。
Prompt 工程师负责所有关键的微调和风险管理工作。实际上,优秀的 Prompt 工程师会采取'红队攻击'策略,测试 AI 如何应对恶意输入,仿佛自己是个恶劣用户。无论是在产品公开发布前还是发布后,这种工作都在持续进行。
在整个开发过程中,他们还需要识别 AI 产品的优势与弱点。这一步骤对于精细调整最终产品至关重要,让他们在如何有效推广新一代 AI 产品方面发挥着不可或缺的作用。
技术深度要求
真正的提示工程不仅仅是写几句话。它涉及对模型内部机制的理解,包括注意力机制、上下文窗口限制以及温度参数对输出的影响。工程师需要掌握 Few-Shot Learning(少样本学习)、Chain-of-Thought(思维链)等高级技巧,通过结构化输入引导模型输出高质量结果。此外,还需要处理 Token 成本优化问题,确保在有限的预算下实现最佳效果。
Prompt 工程的奇异之旅
现代的 Prompt 工程充满了实验性探索,依赖直觉,探究 AI 对不同输入的反应。这种探索有时会触及道德和哲学议题,尤其是当 AI 的反应似乎显示出某种'意识存在'时。
对于那些对这方面感兴趣的人,AI 模型带来了一种奇特的异样感。比如,某些特定的提示语可能会意外地提升 AI 在特定任务上的表现,例如,告诉模型'深呼吸',竟然能显著提高其数学解题能力。这种现象不禁让人觉得奇怪。同样令人惊讶的是,这种方法竟然是经过数百次尝试后发现的最佳策略!
如果你让模型执行一个任务但它屡次失败,告诉它另一个错误的结果'会导致一名无辜者死亡',通常可以见到性能的提升。我们不能对此作过多解读,但这种现象确实令人困惑。它是否真的'认为'某人的生命悬于一线?我们真的能接受这样的设定吗?这些都是 Prompt 工程师必须面对的问题。但同时,AI 快速'人性化'的趋势也可能意味着这个职位不久将会消失。
职业性质的转变
回顾 2022 年,编写有效的 AI 提示似乎是一项艰巨的任务,这要求你具备相应的领域知识。举个例子,你得了解到,一个有效的提示是不应该以空格结尾的。这解释了为何许多出色的提示编写师都曾是数据科学家。
然而,今天的情况有了翻天覆地的变化。以 Dall-e 3 为例,这个图像生成器极大地简化了我们的工作。当你向它提出一个请求,它能够自动优化并改进你的提示。例如,当我请求它根据'当 AI 失控'这个描述创造图片时,它不仅迅速地扩充并改进了我的原始想法,还转化成了一个描绘未来城市景观、充满先进科技和 AI 元素失控迹象的详细场景。这个场景不仅包含了机器人形象和显示错误信息的数字屏幕,还营造了一种黑暗且充满威胁的天空背景,象征着 AI 系统失去控制,整个图像充满了戏剧性和引人深思的氛围。


