Ubuntu 20.04 手动安装 Ollama 指南

Ubuntu 20.04 手动安装 Ollama 指南

系统要求

  • 操作系统:Ubuntu 20.04 LTS 或更高版本
  • 架构:x86_64 (AMD64) - 通过 uname -m 确认输出为 x86_64
  • 权限:需要 sudo 权限

1. 下载安装包

确认系统架构

uname -m # 应输出: x86_64# 如果输出 aarch64/arm64,需下载ARM版本

下载地址

Ollama GitHub Releases 下载最新版本:

  • 选择 ollama-linux-amd64.tar.gzollama-linux-x86_64.tar.gz

注意:不要下载 ollama-linux-arm64.tar.gz(ARM架构专用)

2. 安装步骤

2.1 创建安装目录并解压

# 创建安装目录sudomkdir -p /opt/ollama # 进入目录并解压(假设安装包在 ~/Downloads)cd /opt/ollama sudotar -xzvf ~/Downloads/ollama-linux-amd64.tar.gz --strip-components=1# 参数说明:`--strip-components=1` 会去掉压缩包内可能存在的顶层文件夹,直接提取文件。

2.2 创建系统用户

# 为Ollama创建专用系统用户(安全考虑)sudouseradd -r -s /bin/false -m -d /usr/share/ollama ollama # 设置目录权限sudochown -R ollama:ollama /opt/ollama # 1. 确保Ollama用户的HOME目录存在且有正确权限sudomkdir -p /usr/share/ollama sudochown -R ollama:ollama /usr/share/ollama sudochmod755 /usr/share/ollama # 2. 提前创建模型目录(避免后续权限问题)sudomkdir -p /usr/share/ollama/.ollama/models sudochown -R ollama:ollama /usr/share/ollama/.ollama sudochmod755 /usr/share/ollama/.ollama # 3. 确保Ollama主程序有执行权限sudochmod +x /opt/ollama/ollama 

2.3 配置系统服务

创建 /etc/systemd/system/ollama.service

[Unit] Description=Ollama Service After=network-online.target Wants=network-online.target [Service] Type=exec User=ollama Group=ollama WorkingDirectory=/opt/ollama ExecStart=/opt/ollama/ollama serve Restart=always RestartSec=3 Environment="HOME=/usr/share/ollama" Environment="OLLAMA_MODELS=/usr/share/ollama/.ollama/models" # 允许Ollama写入模型目录 ReadWritePaths=/usr/share/ollama/.ollama [Install] WantedBy=default.target 

2.4 启动服务

# 重载systemd配置sudo systemctl daemon-reload # 启用开机自启sudo systemctl enable ollama # 启动服务sudo systemctl start ollama # 检查状态sudo systemctl status ollama 

2.5 创建命令快捷方式

# 创建软链接,使ollama命令全局可用sudoln -sf /opt/ollama/ollama /usr/local/bin/ollama # 验证安装 ollama --version 

3. 使用指南

3.1 基本命令

# 查看版本 ollama --version # 列出已安装模型 ollama list # 运行模型(首次运行会自动下载) ollama run llama2 # 拉取模型但不运行 ollama pull llama2 # 删除模型 ollama rm llama2 

3.2 常用模型

# 较小模型,适合测试 ollama run phi # Llama 2(7B参数) ollama run llama2 # Code Llama(编程专用) ollama run codellama # Mistral(平衡性能与速度) ollama run mistral 

4. 故障排除

4.1 服务启动失败

常见错误:status=226/NAMESPACE

# 检查服务状态sudo systemctl status ollama --no-pager -l # 查看详细日志sudo journalctl -u ollama -n 30 --no-pager # 临时解决方案:简化服务配置sudotee /etc/systemd/system/ollama.service <<'EOF' [Unit] Description=Ollama Service After=network.target [Service] Type=simple User=ollama Group=ollama ExecStart=/opt/ollama/ollama serve Restart=always RestartSec=3 [Install] WantedBy=multi-user.target EOF

4.2 权限问题

# 检查目录权限sudols -la /opt/ollama/ sudols -la /usr/share/ollama/ # 重新设置权限sudochown -R ollama:ollama /opt/ollama sudochown -R ollama:ollama /usr/share/ollama sudochmod +x /opt/ollama/ollama 

4.3 端口冲突

# 检查11434端口是否被占用sudo ss -tlnp |grep :11434 # 如果被占用,修改服务配置中的启动参数:# ExecStart=/opt/ollama/ollama serve --host 0.0.0.0:11435

4.4 模型下载问题

# 检查模型目录ls -la /usr/share/ollama/.ollama/models/ # 设置代理(如果需要)exporthttps_proxy=http://your-proxy:port ollama pull llama2 

5. 文件路径说明

路径用途默认权限
/opt/ollama/Ollama主程序ollama:ollama
/usr/share/ollama/.ollama/models/模型存储位置ollama:ollama
/etc/systemd/system/ollama.service服务配置文件root:root
/usr/local/bin/ollama命令软链接root:root

6. 卸载指南

# 停止并禁用服务sudo systemctl stop ollama sudo systemctl disable ollama # 删除服务文件sudorm /etc/systemd/system/ollama.service sudo systemctl daemon-reload # 删除安装目录sudorm -rf /opt/ollama sudorm -rf /usr/share/ollama/.ollama # 删除系统用户sudouserdel ollama 2>/dev/null # 删除命令软链接sudorm -f /usr/local/bin/ollama 

7. 注意事项

  1. 首次运行模型会下载模型文件(数GB大小),请确保磁盘空间充足
  2. 默认端口:11434,可通过 --host 参数修改
  3. 模型存储:默认存储在 /usr/share/ollama/.ollama/models/
  4. 内存要求:7B模型约需14GB RAM,3B模型约需6GB RAM
  5. GPU支持:如需GPU加速,确保已安装NVIDIA驱动和CUDA

8. 快速验证脚本

#!/bin/bash# ollama_quick_test.shecho"1. 检查服务状态..."sudo systemctl status ollama --no-pager |grep -E "(Active|Loaded|Main PID)"echo -e "\n2. 检查端口监听..."sudo ss -tlnp |grep11434||echo"端口未监听"echo -e "\n3. 测试API连接..."curl -s http://localhost:11434/api/tags ||echo"API连接失败"echo -e "\n4. 测试命令行..." ollama --version &&echo"Ollama命令正常"||echo"命令异常"

保存为脚本并执行:

chmod +x ollama_quick_test.sh ./ollama_quick_test.sh 

最后更新:根据实际安装经验整理,已解决 status=226/NAMESPACE 权限错误问题。

Read more

内存暴涨700%背后的惊天真相:AI正在吞噬一切!能源·隐私·绿色三大维度深度拆解

内存暴涨700%背后的惊天真相:AI正在吞噬一切!能源·隐私·绿色三大维度深度拆解

🔥作者简介: 一个平凡而乐于分享的小比特,中南民族大学通信工程专业研究生,研究方向无线联邦学习 🎬擅长领域:驱动开发,嵌入式软件开发,BSP开发 ❄️作者主页:一个平凡而乐于分享的小比特的个人主页 ✨收录专栏:未来思考,本专栏结合当前国家战略和实时政治,对未来行业发展的思考 欢迎大家点赞 👍 收藏 ⭐ 加关注哦!💖💖 🔥内存暴涨700%背后的惊天真相:AI正在吞噬一切!能源·隐私·绿色三大维度深度拆解 |前言| 最近装机的小伙伴们欲哭无泪:DDR5内存价格一路狂飙,部分DRAM现货价格在过去一年暴涨近700% 。大家习惯性吐槽“厂商放火”、“产能不足”,但很少有人看到,这场涨价风暴的真正推手,是那只名为“AI”的巨兽。 当你还在为多花几百块钱买内存心疼时,国家正在西部荒漠建起一座座数据中心,科技巨头正在为“吃电怪兽”抢购每一颗芯片。2026年,大型科技公司的AI相关投资预计将达到6500亿美元,较去年增长约80% 。 今天,我们从能源供应、隐私安全、绿色AI 三个维度,结合东数西算、算电协同、

By Ne0inhk
OpenClaw/MaxClaw/KimiClaw/Molili四大AI Agent横评!

OpenClaw/MaxClaw/KimiClaw/Molili四大AI Agent横评!

2026年爆火的开源AI Agent项目OpenClaw,因配置复杂劝退99%非技术用户,催生了MaxClaw、KimiClaw等云端简化版,以及本土化适配的Molili中文版。 一、四大产品核心定位与基础信息 产品名称 核心定位 开发主体 部署方式 核心优势 核心短板 OpenClaw 开源AI Agent框架("老大哥") 开源社区 本地部署(需技术配置) 功能最强、数据完全自主、生态最丰富 安装复杂、需技术基础、网络配置繁琐 MaxClaw 云端精装版OpenClaw MiniMax 云端一键部署 预置工具丰富、飞书 / 钉钉深度集成、平衡便捷与功能 需订阅会员、数据存云端、功能依赖平台更新 KimiClaw 浏览器轻量版OpenClaw 月之暗面(Kimi) 云端免部署(浏览器 / APP 内使用) 门槛最低、

By Ne0inhk
【Linux】生产者-消费者模型及条件变量

【Linux】生产者-消费者模型及条件变量

一、生产者-消费者模型 当多个线程同时操作一份共享数据时,我们会遇到一个非常现实的问题:有的线程负责生产数据,有的线程负责使用数据。如果数据还没准备好,使用端线程就不断去检查、争抢资源,会造成大量无意义的 CPU 消耗;而数据满了,生产端线程还继续写入,又会导致数据错乱。 我们可以用一个很形象的例子来理解:有一个只能容纳一个苹果的盘子,这就是我们的临界区;有一个人往盘子里放苹果,他是生产者;还有三个人从盘子里取苹果,他们是消费者。但关键在于:这几个人都被蒙上了眼睛,而且彼此之间无法交流。 于是就出现了尴尬的局面:生产者不知道盘子里有没有苹果,只能反复伸手去摸、去试探;消费者也不知道盘子里有没有苹果,只能不停过来查看、争抢。大家都在做无意义的尝试,既浪费精力,又可能出现 “盘子空了还在取、盘子满了还在放” 的混乱情况。 这就是典型的:缺少同步、缺少等待 - 通知机制。而我们要介绍的生产者 - 消费者模型,正是为了解决这个问题而生。 可以想到,出现这样的问题最大的原因就是多个线程之间缺少‘配合’

By Ne0inhk
苹果电脑(macOS)Safari 浏览器开启开发者模式完整指南

苹果电脑(macOS)Safari 浏览器开启开发者模式完整指南

陈牧函 在macOS系统中,Safari浏览器默认隐藏开发者模式,需通过简单设置激活,以便使用 “检查元素”“网络监控”“JS 控制台”等调试工具。以下是分步骤操作方法、进阶功能及常见问题解决方案: 一、基础步骤:开启 “开发” 菜单(核心操作) 所有 macOS 版本通用,是激活开发者模式的核心步骤,必须先完成这一步: 1.打开 Safari 浏览器 点击 Dock 栏中的 Safari 图标,或从 “应用程序” 文件夹中启动 Safari。 2.进入 Safari 设置(偏好设置) 点击屏幕左上角的「Safari」菜单(位于菜单栏最左侧,苹果图标右侧),在下拉菜单中选择「设置」(部分旧版本显示为 “偏好设置”

By Ne0inhk