Ubuntu 20.04 手动安装 Ollama 指南

Ubuntu 20.04 手动安装 Ollama 指南

系统要求

  • 操作系统:Ubuntu 20.04 LTS 或更高版本
  • 架构:x86_64 (AMD64) - 通过 uname -m 确认输出为 x86_64
  • 权限:需要 sudo 权限

1. 下载安装包

确认系统架构

uname -m # 应输出: x86_64# 如果输出 aarch64/arm64,需下载ARM版本

下载地址

Ollama GitHub Releases 下载最新版本:

  • 选择 ollama-linux-amd64.tar.gzollama-linux-x86_64.tar.gz

注意:不要下载 ollama-linux-arm64.tar.gz(ARM架构专用)

2. 安装步骤

2.1 创建安装目录并解压

# 创建安装目录sudomkdir -p /opt/ollama # 进入目录并解压(假设安装包在 ~/Downloads)cd /opt/ollama sudotar -xzvf ~/Downloads/ollama-linux-amd64.tar.gz --strip-components=1# 参数说明:`--strip-components=1` 会去掉压缩包内可能存在的顶层文件夹,直接提取文件。

2.2 创建系统用户

# 为Ollama创建专用系统用户(安全考虑)sudouseradd -r -s /bin/false -m -d /usr/share/ollama ollama # 设置目录权限sudochown -R ollama:ollama /opt/ollama # 1. 确保Ollama用户的HOME目录存在且有正确权限sudomkdir -p /usr/share/ollama sudochown -R ollama:ollama /usr/share/ollama sudochmod755 /usr/share/ollama # 2. 提前创建模型目录(避免后续权限问题)sudomkdir -p /usr/share/ollama/.ollama/models sudochown -R ollama:ollama /usr/share/ollama/.ollama sudochmod755 /usr/share/ollama/.ollama # 3. 确保Ollama主程序有执行权限sudochmod +x /opt/ollama/ollama 

2.3 配置系统服务

创建 /etc/systemd/system/ollama.service

[Unit] Description=Ollama Service After=network-online.target Wants=network-online.target [Service] Type=exec User=ollama Group=ollama WorkingDirectory=/opt/ollama ExecStart=/opt/ollama/ollama serve Restart=always RestartSec=3 Environment="HOME=/usr/share/ollama" Environment="OLLAMA_MODELS=/usr/share/ollama/.ollama/models" # 允许Ollama写入模型目录 ReadWritePaths=/usr/share/ollama/.ollama [Install] WantedBy=default.target 

2.4 启动服务

# 重载systemd配置sudo systemctl daemon-reload # 启用开机自启sudo systemctl enable ollama # 启动服务sudo systemctl start ollama # 检查状态sudo systemctl status ollama 

2.5 创建命令快捷方式

# 创建软链接,使ollama命令全局可用sudoln -sf /opt/ollama/ollama /usr/local/bin/ollama # 验证安装 ollama --version 

3. 使用指南

3.1 基本命令

# 查看版本 ollama --version # 列出已安装模型 ollama list # 运行模型(首次运行会自动下载) ollama run llama2 # 拉取模型但不运行 ollama pull llama2 # 删除模型 ollama rm llama2 

3.2 常用模型

# 较小模型,适合测试 ollama run phi # Llama 2(7B参数) ollama run llama2 # Code Llama(编程专用) ollama run codellama # Mistral(平衡性能与速度) ollama run mistral 

4. 故障排除

4.1 服务启动失败

常见错误:status=226/NAMESPACE

# 检查服务状态sudo systemctl status ollama --no-pager -l # 查看详细日志sudo journalctl -u ollama -n 30 --no-pager # 临时解决方案:简化服务配置sudotee /etc/systemd/system/ollama.service <<'EOF' [Unit] Description=Ollama Service After=network.target [Service] Type=simple User=ollama Group=ollama ExecStart=/opt/ollama/ollama serve Restart=always RestartSec=3 [Install] WantedBy=multi-user.target EOF

4.2 权限问题

# 检查目录权限sudols -la /opt/ollama/ sudols -la /usr/share/ollama/ # 重新设置权限sudochown -R ollama:ollama /opt/ollama sudochown -R ollama:ollama /usr/share/ollama sudochmod +x /opt/ollama/ollama 

4.3 端口冲突

# 检查11434端口是否被占用sudo ss -tlnp |grep :11434 # 如果被占用,修改服务配置中的启动参数:# ExecStart=/opt/ollama/ollama serve --host 0.0.0.0:11435

4.4 模型下载问题

# 检查模型目录ls -la /usr/share/ollama/.ollama/models/ # 设置代理(如果需要)exporthttps_proxy=http://your-proxy:port ollama pull llama2 

5. 文件路径说明

路径用途默认权限
/opt/ollama/Ollama主程序ollama:ollama
/usr/share/ollama/.ollama/models/模型存储位置ollama:ollama
/etc/systemd/system/ollama.service服务配置文件root:root
/usr/local/bin/ollama命令软链接root:root

6. 卸载指南

# 停止并禁用服务sudo systemctl stop ollama sudo systemctl disable ollama # 删除服务文件sudorm /etc/systemd/system/ollama.service sudo systemctl daemon-reload # 删除安装目录sudorm -rf /opt/ollama sudorm -rf /usr/share/ollama/.ollama # 删除系统用户sudouserdel ollama 2>/dev/null # 删除命令软链接sudorm -f /usr/local/bin/ollama 

7. 注意事项

  1. 首次运行模型会下载模型文件(数GB大小),请确保磁盘空间充足
  2. 默认端口:11434,可通过 --host 参数修改
  3. 模型存储:默认存储在 /usr/share/ollama/.ollama/models/
  4. 内存要求:7B模型约需14GB RAM,3B模型约需6GB RAM
  5. GPU支持:如需GPU加速,确保已安装NVIDIA驱动和CUDA

8. 快速验证脚本

#!/bin/bash# ollama_quick_test.shecho"1. 检查服务状态..."sudo systemctl status ollama --no-pager |grep -E "(Active|Loaded|Main PID)"echo -e "\n2. 检查端口监听..."sudo ss -tlnp |grep11434||echo"端口未监听"echo -e "\n3. 测试API连接..."curl -s http://localhost:11434/api/tags ||echo"API连接失败"echo -e "\n4. 测试命令行..." ollama --version &&echo"Ollama命令正常"||echo"命令异常"

保存为脚本并执行:

chmod +x ollama_quick_test.sh ./ollama_quick_test.sh 

最后更新:根据实际安装经验整理,已解决 status=226/NAMESPACE 权限错误问题。

Read more

人工智能:多模态大模型原理与跨模态应用实战

人工智能:多模态大模型原理与跨模态应用实战

人工智能:多模态大模型原理与跨模态应用实战 1.1 本章学习目标与重点 💡 学习目标:掌握多模态大模型的核心原理、跨模态特征融合方法,以及基于多模态模型的图文生成与理解任务实战流程。 💡 学习重点:理解多模态模型的架构设计,学会使用 Hugging Face 生态工具调用 CLIP 与 BLIP-2 模型,完成图文检索与图像描述生成任务。 1.2 多模态大模型的核心概念与发展背景 1.2.1 什么是多模态大模型 💡 多模态大模型是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能模型。它打破了传统单模态模型的信息壁垒,实现了跨模态的理解与生成。 多模态大模型的核心能力体现在两个方面: * 跨模态理解:实现不同模态数据之间的关联分析,例如根据文本描述查找对应图像、根据图像内容生成文字摘要。 * 跨模态生成:以一种模态数据为输入,生成另一种模态的数据,例如文本生成图像、图像生成文本、语音生成视频等。 与单模态大模型相比,多模态大模型更贴近人类的认知方式。人类在认识世界的过程中,本身就是通过视觉、听觉、语言等多种感官渠道接收和处理信息的。

By Ne0inhk
AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

AI赋能专利翻译,八月瓜科技“妙算翻译大模型”亮相国际论坛

当前,国家高度重视人工智能与知识产权融合发展,《新一代人工智能发展规划》明确提出“推动人工智能在知识产权检索、分析、翻译等领域的深度应用,提升知识产权服务效率与质量”,《“十四五”国家知识产权保护和运用规划》也强调“加强知识产权信息化、智能化基础设施建设,推动专利信息跨语言互通”。 顺应这一政策导向,专利领域对专业化翻译的需求愈发迫切。八月瓜科技“妙算翻译大模型”立足需求,凭借深厚的技术积累与精准的场景适配,成为破解行业痛点、助力跨境创新的核心力量。 国际论坛亮相获认可,产品实力彰显初心 日前,妙算翻译大模型凭借在专利翻译领域的突出实力与创新成果,亮相东盟+中日韩(10+3)人工智能产业发展论坛,成为论坛上聚焦知识产权服务智能化的亮点成果,获得了行业专家、参会企业及相关机构的高度关注与广泛认可。此次论坛亮相,不仅是对妙算翻译大模型技术实力与应用价值的权威肯定,更彰显了其在推动专利翻译智能化、打破跨国创新语言壁垒方面的重要作用,为其进一步拓展市场、服务更多科技创新主体奠定了坚实基础。 能获得行业广泛认可,核心源于产品本身的专业定位与硬核实力。妙算翻译大模型在语言

By Ne0inhk

vscode用户必看:opencode插件安装与AI补全启用教程

vscode用户必看:opencode插件安装与AI补全启用教程 1. 引言 随着AI编程助手的快速发展,开发者对高效、安全、可定制化工具的需求日益增长。OpenCode作为2024年开源的AI编程框架,凭借其“终端优先、多模型支持、隐私安全”的设计理念,迅速在开发者社区中获得广泛关注。它不仅支持主流云端大模型如GPT、Claude、Gemini,还允许接入本地运行的模型(如通过Ollama部署的Qwen3-4B-Instruct-2507),真正实现离线可用、代码不外泄。 本文将重点介绍如何在VS Code中安装并配置OpenCode插件,并结合vLLM部署本地推理服务,启用基于Qwen3-4B-Instruct-2507的智能代码补全功能。无论你是追求极致隐私保护的独立开发者,还是希望构建企业级AI编码环境的技术负责人,本教程都能为你提供完整落地路径。 2. OpenCode 核心特性解析 2.1 架构设计:客户端/服务器模式 OpenCode采用典型的C/S架构,核心Agent运行于本地或远程服务器,VS Code等IDE通过插件与其通信。这种设计带来三大优势:

By Ne0inhk

2026 年最新 7 款热门 AI 编程工具评测,实用不踩坑(Trae 领衔推荐)

随着 AI 技术与编程领域的深度融合,高效智能的 AI 编程工具已成为开发者提升效率、规避冗余工作的核心伙伴。本次我们精选 7 款国内外主流 AI 编程工具,结合实测体验,从功能实用性、适配场景、使用门槛等维度展开介绍,为不同需求的开发者提供真实可参考的选择,全程无冗余铺垫,直接进入核心推荐。 Trae(字节跳动旗下 AI 编程工具) 作为字节跳动深耕 AI 编程领域的核心产品,Trae 依托字节跳动自研 Seed 大模型,凭借零使用成本、出色的中文适配性和全面的基础功能,成为本次评测中最适合国内开发者的入门及日常开发工具。与同类工具相比,Trae 最大的优势是无门槛接入,个人版完全免费,无需订阅付费即可使用全部核心功能,极大降低了开发者的使用成本,尤其适合预算有限的新手和个人开发者。功能上,它全面支持 Python、Java、JavaScript、Go 等 20 + 主流编程语言,覆盖前端、

By Ne0inhk