将本地大型语言模型(LLM)集成到 Python 项目中,是提升隐私性、降低成本并构建可离线 AI 应用的绝佳策略。Ollama 作为一个开源平台,能让您轻松在本地计算机上运行现代大型语言模型。设置好 Ollama 并拉取所需模型后,即可使用 ollama 库从 Python 连接到这些模型。
本指南演示了如何利用 Ollama 平台及其 Python SDK 将本地 LLM 集成到 Python 项目中。我们将首先完成环境搭建,然后学习如何在代码中使用聊天、文本生成和工具调用功能。掌握这些技能后,您就能构建完全本地运行的 AI 应用。
环境准备
要完成本教程,需要以下资源和设置:
- Ollama 已安装并运行:这是使用本地 LLM 的基础。下文将介绍如何安装和启动服务。
- Python 3.8 或更高版本:Ollama 的 Python SDK 依赖此版本及以上。
- 使用的模型:本教程将使用
llama3.2:latest和codellama:latest这两个模型。 - 硬件要求:本地运行模型需要一定的内存、磁盘空间和 CPU 性能。虽然本教程可能不需要 GPU,但如果您有 GPU,本地模型的运行速度会快得多。
具备这些条件后,就可以开始连接您的 Python 代码了。
安装 Ollama 与模型
在能够使用 Python 调用本地模型之前,需要先运行 Ollama 并下载至少一个模型。
启动 Ollama 服务
请访问 Ollama 官网获取适用于您当前操作系统的安装程序。
在 Windows 系统中,安装完成后 Ollama 会在后台运行,您可以使用其命令行界面 (CLI)。如果未自动运行,请在开始菜单搜索 Ollama 并启动应用程序。
在 macOS 上,只需启动 Ollama.app 即可管理 CLI 和设置。
如果您使用的是 Linux 系统,可使用以下命令安装:
$ curl -fsSL https://ollama.com/install.sh | sh
安装完成后,验证版本:
$ ollama -v
若显示版本号则表示安装成功。接下来启动服务:
$ ollama serve
在某些 Linux 发行版(如 Ubuntu)中,Ollama 可能会在安装后自动启动,此时手动执行上述命令可能会报错,属正常现象。
拉取模型
Ollama 运行后,即可下载所需模型。确保有足够的磁盘空间,例如 llama3.2:latest 约需 2.0 GB,codellama:latest 约需 3.8 GB。
运行以下命令拉取模型:
$ ollama pull llama3.2:latest
$ ollama pull codellama:latest
这可能需要一些时间。下载完成后,您可以在命令行尝试:
$ ollama run llama3.2:latest
>>> Explain what Python is in one sentence.
Python is a high-level, interpreted programming language known for its simplicity, readability, and versatility...
如果提示符正常工作,说明可以连接。按 Ctrl + D 退出。
安装 Python SDK
Ollama 提供了一个 Python 库,用于在应用程序中调用本地模型。在虚拟环境中安装该库:
(venv) $ python -m pip install ollama
该库即 Ollama Python SDK,是将 Python 项目与 Ollama 集成的推荐方式。


