Open WebUI 下载模型文件的默认存储路径
在使用 Ollama 平台进行本地大语言模型部署时,了解模型文件的存储位置至关重要。这不仅有助于有效地管理和备份模型,还能确保在需要时能够快速访问和更新这些文件。
命令行安装存放位置
以下以 llama3:8b 模型为例进行测试。输入命令等待安装完成即可。

默认存放路径
C:\Users\%USERPROFILE%\.ollama\models\manifests\registry.ollama.ai
注意:请根据实际用户名替换 %USERPROFILE%,不要直接复制粘贴示例路径。

Open WebUI 下载存放位置
我们选择 qwen2:1.5b 模型通过 Open WebUI 界面进行拉取测试,等待模型拉取成功。

默认存放路径
进入以下目录查看:
C:\Users\%USERPROFILE%\.ollama\models\manifests\registry.ollama.ai\library
同样需要根据实际用户名调整路径。

可以看到有两个文件,一个是使用 CMD 下载的(如 llama3),另外一个是在部署的 Open WebUI 下载的(如 qwen2)。不管是哪里下载的模型,都可以被 Ollama 服务调取使用。

扩展知识
关于 Ollama
Ollama 是一个开源工具,旨在简化本地运行大型语言模型的过程。它支持多种主流模型,提供简洁的 API 接口,适用于开发者和研究人员快速部署 AI 应用。
关于 Open WebUI
Open WebUI 是 Ollama 的一个开源用户界面框架,旨在简化和加速与大语言模型的交互。通过提供一套完整的工具和组件,Open WebUI 使开发者能够更方便地构建、部署和维护高质量的 AI 对话应用。


