Prompt 工程这个词在 ChatGPT 刚出来那会儿特别的火,特别是网上一度流行的各种 prompt 工程师的招聘广告,动辄一个月上万,甚至几个 W。

但是这股风其实来的快,散的更快。
因为 Prompt 对于一个问题的回答的作用可能是从 60 分涨到 75 分,或者 80 分,但是不可能再高了,原因就是大模型本身的智能程度决定了回答的上下限。
同样的一个问题,不同大模型的回答水平差异非常的大。
比如我们用一个非常简单的例子,就问大模型「如何学习 Python?」
Google 的 Bard 给出的回答是这样的,非常宽泛且没有具体的学习内容。

Claude 给出的回答也一般。

而 GPT4 就不一样了,你可以看到它给出的回答是言之有物的,你可以根据它的回答进行比较细化的查找,而不是全都是泛泛而谈,说了跟没说一样。

你看 ChatGPT 3.5 版本的输出就是不如 GPT4.0 的输出。

其实很简单,智能程度就体现在细节,细节越多,越难实现。
因此,选择合适的模型至关重要。在此基础上,我们可以借助规范的 Prompt 框架来最大化模型能力。
而且钻研 prompt 能力你可能很快封顶了,还要面临更多的竞争压力。但算法相关岗位,需求最大,薪资最高,优秀的 AIGC 算法工程师年薪高达 96w 以上,所以我更推荐钻研算法,去学习 AI 大模型的相关知识。如果你还不知道怎么入门大模型,那我建议听听汇视威开展的 AI 大模型公开课,课程会带你学习大模型背后的技术原理,LangChain、Fine-tune 技术,从理论实践,到深度讲解,带你全程体验微调过程,定制属于自己的大模型。课上还能直接对话 AI 技术大佬,现场答疑,干货满满!
🔥2024 大模型公开课👉技术原理 + 模型训练 + 应用场景扫描下方二维码获取

如果你用了一个很笨的大模型,你的 Prompt 就是雕成花都没太大用。
相反,即便你的 prompt 看起来一点儿都不够精美,但是聪明的大模型大概率是可以输出不错的结果的。




