Open WebUI 下载存放位置
在使用 Ollama 平台进行深度学习模型推理时,了解模型文件的存储位置至关重要。这不仅有助于有效地管理和部署模型,还能确保在需要时能够快速访问和更新这些文件。本文将详细探讨 Ollama 下载的模型文件存放在哪里,并提供相关的操作指南。
使用 CMD 安装存放位置
以下进行测试,我们采用 llama3:8B 模型来测试。
输入命令等待安装即可。

默认存放路径
C:\Users\Smqnz\.ollama\models\manifests\registry.ollama.ai
注意不要直接复制粘贴,我的用户名和你的不一样,你可以顺着找一找。

Open WebUI 下载存放位置
我们选 qwen2:1.5b 来做测试,等待模型拉取成功。

默认存放路径
这时候我们进入
C:\Users\Smqnz\.ollama\models\manifests\registry.ollama.ai\library
同样不要直接复制粘贴,你的用户名可能不同。

可以看到有两个文件,一个是使用 CMD 下载的(llama3),另外一个是在部署的 Open WebUI 下载的(qwen2)。不管是哪里下载的模型都是可以调取使用的。

扩展知识
关于 Ollama
Ollama 是一个用于本地运行大型语言模型的工具,支持多种主流模型架构。它简化了模型部署流程,允许用户在本地环境中快速启动和交互。


