Open WebUI 下载模型文件的默认存储路径
在使用 Ollama 平台进行大语言模型部署时,了解模型文件的存储位置至关重要。这不仅有助于有效地管理和部署模型,还能确保在需要时能够快速访问和更新这些文件。本文将详细探讨 Ollama 下载的模型文件存放在哪里,并提供相关的操作指南。
使用 CMD 安装存放位置
以下进行测试,我们采用 llama3 模型来测试。输入命令等待安装即可:
ollama pull llama3
默认存放路径
%USERPROFILE%\.ollama\models\manifests\registry.ollama.ai
注意:请将 %USERPROFILE% 替换为实际的用户名目录。

Open WebUI 下载存放位置
我们选 qwen2:1.5b 来做测试,等待模型拉取成功。

默认存放路径
这时候我们进入:
%USERPROFILE%\.ollama\models\manifests\registry.ollama.ai\library

可以看到有两个文件,一个是使用 CMD 下载的(llama3),另外一个是在部署的 Open WebUI 下载的(qwen2)。不管是哪里下载的模型都是可以调取使用的。

扩展知识
关于 Ollama
Ollama 是一个开源工具,旨在简化本地运行大型语言模型的过程。它专注于提供便捷的服务,让用户能够轻松部署和管理 AI 模型。
核心价值
- 轻量级部署:支持多种主流模型,无需复杂的配置即可运行。
- 跨平台支持:兼容 Windows、macOS 和 Linux 系统。
- 易于集成:提供 API 接口,方便与其他应用集成。


