AI 核心概念解析
这些术语你了解多少?本文旨在厘清 AI 领域的关键概念。所谓智能体,本质上是由多个无需独立智能的模块组合而成;许多新概念不过是旧技术的重新包装。
涉及关键词: LLM, Prompt, Context, Memory, Agent, RAG, Function Calling, MCP, Skill, Sub-Agent
第一步:语言模型的发展
一切混乱的起点是语言模型。早期的模型功能受限,主要进行简单的文字接龙。但随着参数规模不断膨胀,在某个临界点,它涌现出了真正的智能。
为了区分早期模型,我们在前面加了个'大'字:
词汇① 大语言模型(LLM)
LLM 本质上只做一件事:根据上文,预测下一个字。如果只是这么用,它的表现仍然有限。
小模型(功能受限阶段)
|
参数不断增大
|
大语言模型 LLM(涌现出智能)
把 LLM 想象成你的员工
把自己想象成一个老板,LLM 是你的员工,就叫他「小 L」。小 L 服务你的方式很特别:只能一问一答,问完就结束,不能追问。这个特点非常关键。
你们每次的对话,你给它起了个洋气的名字:
词汇② Prompt(提示词)
仔细观察每次对话,你发现里面的内容可以细分:有的是背景信息,有的是最终指令。于是背景信息那部分,你单独起名叫:
词汇③ Context(上下文)
第二步:让小 L 记住你
问题来了:小 L 只能一问一答,如何追问?
你想了个聪明的办法——把历史对话塞进 Context,每次提问前带上之前的所有交流记录,伪装成连续对话。
词汇④ Memory(记忆)
随着对话越来越长,Memory 会越来越大,占用大量上下文空间。于是你又让 LLM 对历史记录进行压缩总结,减少长度,提高效率。
追加到
你的第 N 次问题(Prompt)
|
📦 拼装后发给 LLM
|
历史对话记录(Memory / Context)
|
小 L 回答
小结: 到目前为止,你已经发明了 4 个新词:
LLM,Prompt,Context,Memory。一个原本只会词语接龙的小 L,现在已经可以进行有记忆的连续对话了。
第三步:给小 L 配上工具
你很快发现小 L 有个致命缺陷:它不会上网查资料,给的信息要么过时,要么是瞎编的。
最简单的解法是:你帮它查,查完再告诉它。但这样一来,到底谁是执行者?
于是你把'上网搜索'这个动作写成了一段程序,让程序替你跑腿,自动完成搜索然后把结果喂给小 L。
词汇⑤ Agent(智能体)
⚠️ 别被这个名字唬住。早期很多所谓'智能体',实现逻辑不过是多加了一段 Prompt 而已——换个名字就敢叫智能体,略显夸大。

