2025 AI Agent 技术栈全解析:从 LLM 到自主智能体
你是否曾好奇,那些能自主执行任务、调用工具的 AI "Agent" 是如何运作的?2024 年,我们见证了 AI 技术从简单的聊天机器人向更复杂的智能体转变。但当我们深入研究这些 Agent 时,会发现它们背后的技术栈与我们熟悉的 LLM 技术栈截然不同。
今天,我们就来揭开 AI Agent 技术的神秘面纱,为你梳理这个快速发展的领域,让你不再雾里看花。
从 LLM 到 Agent:一场深刻的进化
在 2022 和 2023 年,我们见证了 LLM 框架和 SDK 的爆发,如 LangChain 和 LlamaIndex。与此同时,LLM 的使用也变得更加方便,无论是通过 API 调用还是自行部署(比如 vLLM 和 Ollama)。
然而,到了 2024 年,大家的目光开始转向更高级的 AI "Agent"。这个概念虽然早在 AI 领域就存在,但在 ChatGPT 时代,它有了新的内涵:能够自主行动、执行任务,并与外部工具交互的 LLM。
这种转变意味着,我们需要一套全新的技术栈来支撑 Agent 的发展。
Agent 技术栈:核心差异在哪里?
Agent 不仅仅是一个会聊天的大模型,它们更像是具备一定自主性的智能体。它们需要管理自己的状态(例如,对话历史和记忆)、调用各种工具,并且安全执行。这使得 Agent 的技术栈和传统的 LLM 技术栈有很大的不同。
让我们从底层到顶层,逐一剖析 Agent 技术栈的关键组成部分。
1. 模型服务:AI 的大脑

核心: LLM。这是 AI Agent 的核心动力。
服务方式: 通过推理引擎提供服务,通常是付费 API 或自己部署。
主要玩家:
- 闭源模型: OpenAI 和 Anthropic 领跑,提供强大的通用能力。
- 开源模型: Together.AI、Fireworks 和 Groq 等提供商开始崭露头角,提供基于 Llama 3 等模型的服务,降低了成本并增加了可控性。
- 本地部署: vLLM 成为生产级 GPU 服务的主流选择,而 Ollama 和 LM Studio 则深受个人爱好者的喜爱,适合隐私敏感场景。
2. 存储:记忆的基石

核心: 持久化状态,如对话历史、记忆和外部数据。
关键技术:
- 向量数据库: Chroma、Weaviate、Pinecone、Qdrant 和 Milvus 等用于存储 Agent 的'外部记忆',应对大容量数据的检索增强生成(RAG)需求。
- 传统数据库: Postgres 通过 pgvector 扩展也开始支持向量搜索,简化了架构复杂度。
为何重要? Agent 是有状态的,需要长期存储和检索信息以维持上下文连贯性,避免重复询问。
3. 工具与库:能力的扩展





