随着大语言模型(LLM)的爆发式增长,越来越多的开发者希望将 AI 能力集成到自己的应用中。而将模型部署在本地运行(如通过 Ollama 等)不仅能够保护数据隐私,还能降低 API 调用成本。Spring AI 作为 Spring 生态中针对 AI 工程化的全新项目,极大地简化了与各类 AI 模型(包括本地模型)的集成工作。
本文将带你从零开始,使用 Spring AI 快速搭建一个能与本地 Ollama 模型对话的 REST 服务。
1. 什么是 Spring AI?
Spring AI 是 Spring 社区推出的一个旨在简化 AI 应用开发的框架。它提供了一套统一的 API,用于与各类 AI 模型(如 OpenAI、Azure OpenAI、Hugging Face、Ollama 等)进行交互。核心特性包括:
- ChatClient:统一的聊天 Completion 接口。
- Prompt Template:基于 Mustache 的提示词模板引擎。
- OutputParser:将模型输出解析为 Java 对象。
- 跨模型支持:只需切换依赖和配置,即可快速更换模型提供商。


