Ubuntu 24.04 离线安装 Ollama 及导入模型教程
前言
随着本地大语言模型(LLM)的兴起,Ollama 成为了在本地运行和管理 LLM(如 Llama 3、Qwen3、Deepseek 等)的热门工具。然而,Ollama 官方的 Linux 安装方法仅提供在线一键安装脚本:
curl -fsSL https://ollama.com/install.sh | sh
该方式不适合在无网络环境或网络受限/速度极慢的服务器上使用,尤其是在国内访问时下载速度常常只有几 KB/s,甚至超时失败。

