AI界的“四大天王”:AIGC、RAG、Agent、MCP,你pick谁
一、前言
哈喽大家好,今天我们来聊下AI相关的一些知识点。
为啥会写这篇文章?是因为前几天看到一个报告,报告显示,大部分人还只是停留在简单与模型对话,甚至只有2%的人开发过智能体,更离谱的是30%多仅仅是听说过。表明整体AI技能基础相对薄弱。
技术圈针对AI已经到了疯癫的程度,这份报告颠覆了我之前的看法,以为AI如干柴烈火之势的发展,大家应该或多或少都知道一些相关的知识,但在技术圈往往会出现幸存者偏差,所以得出来写一篇AI相关技术的普及知识。
随着AI技术发展迅猛,日新月异。大语言模型(LLM)、AIGC、多模态、RAG、Agent、MCP等各种相关概念层出不穷,极易混淆。老周这次不讲太多原理性的东西,作为技术科普文来聊一聊这其中的关系。
二、AIGC
2.1 单模态
我们大部分人都是从ChatGPT问世开始接触AI的。刚开始用ChatGPT的时候,我们体验的其实是一种文生文的能力。比如你输入一句话,模型给你生成一段文字回应。
不管是我们平时写代码、还是写文章,都是AI根据你的输入文字(提示词Prompt),生成另一段文字。这种让AI自动生成内容的能力,就叫做AIGC。
啥叫AIGC呢?下面来自百度百科的回答:
AIGC(Artificial Intelligence Generated Content)——生成式人工智能,是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。 AIGC技术的核心思想是利用人工智能算法生成具有一定创意和质量的内容。
用大白话说就是:用AI自动生成“人类常干的活”。

在最初的时候,AIGC它只能处理一种类型的内容,比如:GPT-3只懂文字,SD只会画画,这种模式就被称之为单模态。
2.2 多模态
随着AI的进化,不只是文生文,像文生图、图生文、文生视频、图生视频等也都逐渐支持了,而这种支持多种类型消息的,就被称为多模态。比如现在的GPT-5。而这些多模态模型,才是真正让AI从工具进化成助手的关键。

AIGC不管单模态还是多模态,有两个天生的限制:
- 不具备实时性:LLM是离线训练的,一旦训练完成后,它们无法获得新的信息。因此,它们无法回答训练数据时间点之后发生的事件,比如“今天的最新新闻”。
- 不会使用工具:最初的AIGC只可以从现在的知识库中获取内容,而不会查询最新的信息,也不能调用API。
因此,这就引出了两个技术方向,一个叫RAG,一个叫Function Call。
2.3 RAG 技术
RAG(Retrieval-Augmented Generation,检索增强生成) 技术,它是一种人工智能(AI)框架,结合了信息检索和生成式语言模型的能力,以提高响应的准确性和相关性。
核心思想:当 LLM 需要回答一个问题或生成文本时,不是仅依赖其内部训练时学到的知识,而是先从一个外部知识库中检索出相关的信息片段,然后将这些检索到的信息与原始问题/指令一起提供给LLM,让LLM基于这些最新、最相关的上下文信息来生成更准确、更可靠、更少幻觉的答案。
通俗的讲:原来模型靠死记硬背,现在它成了会“看资料答题”的开卷考试了。
<