Spring AI 入门:AI 大模型原理与应用架构
1. 认识 AI
1.1. 体验 AI 产品
体验智能客服、语音助手、图像识别等应用,发现它们功能强大且操作便捷。从对话交流到任务执行,AI 产品展现了高度的智能化水平。AI 技术在多场景下展现了广泛应用和潜力,为生活和工作带来显著改变。
1.1.1. 文本类产品
文本类的产品有很多,比如 Deepseek、通义千问、ChatGPT 等。
1.1.2. 文生图产品
以通义千问为例。
1.1.3. 文生视频产品
可以通过文字来生成视频,这里以智谱清言为例。
1.2. AI 是什么
人工智能(AI,Artificial Intelligence)是让机器模拟人类智能的技术,使其能像人一样学习、推理、感知和决策。例如,它能识别语音、推荐视频或汽车的自动驾驶等。
AI 之所以智能,是因为它底层是基于 Transformer 架构实现的,Transformer 是 AI 处理语言的核心架构(比如 ChatGPT、Deepseek 都是基于它实现)。它的核心突破是自注意力机制,让 AI 能像人一样,通过上下文理解每个词的含义。
举例: 她吃了一个苹果
- 传统模型只能逐字分析,可能忽略'吃'和'苹果'之间的关联。
- Transformer 会自动让'吃'关注'苹果',理解动作和对象的关系。
- Transformer 让 AI 学会'联系上下文',像人类一样理解语言逻辑,是当前 AI 爆发(如 ChatGPT)的核心技术。
1.3. 大模型原理
大模型 = 通过海量数据训练出的'超级自动补全工具',核心能力是根据输入内容预测下一个词。
核心原理拆解:
-
底层架构:Transformer(积木块结构)
- 核心组件:自注意力机制(Self-Attention)
- 作用:让模型像人类一样,自动关注输入内容中哪些词更重要(例如:'她吃了一个苹果'中,'吃'是核心动词)。
-
训练过程:
- 预训练:用全网文本(书籍/网页等)学习语言规律,建立'知识库'。
- 例:输入'天空是__',模型学习预测'蓝色'。
- 微调:用特定任务数据(如对话/问答)调整模型,让它更'听话'。
- 预训练:用全网文本(书籍/网页等)学习语言规律,建立'知识库'。
-
运行本质:概率
- 每次输出一个词时,模型计算所有可能词的概率,选择最高概率的词(或随机选高概率词增加多样性)。
- 大模型输出时,会选择概率值最高的词。
- 这里的概率,是指条件概率,也就是说,【游乐场】是【男孩去的地方】概率 0.4。
例:输入'The boy went to the',模型可能输出'Cafe'(概率 0.1)、'Hospital'(0.05)、'Playground'(0.4)、'Park'(0.15)、'School'(0.3)。
[图片:大模型输出概率示意图]
⚠️ 大模型正是因为依据概率回答,所以会存在'AI 幻觉',也就是所谓的'胡说八道'。所以,对于大模型生成的数据,需要进行优化数据、加入人工审核、提醒用户自行验证等。
1.4. 大模型应用架构
基于大模型开发应用有多种方式,接下来我们就来了解下常见的大模型开发技术架构。
1.4.1. 技术架构
目前,大模型应用开发的技术架构主要有四种:
[图片:大模型应用架构对比]
1.4.2. 纯 Prompt 模式
Prompt 是指提示词,很多简单的 AI 应用,仅仅靠一段足够好的提示词就能实现了,这种模式就是纯 Prompt 模式。
由于不同的提示词,能够让大模型给出差异巨大的答案。不断雕琢提示词,使大模型能给出最理想的答案,这个过程就叫做()。

