llama.cpp + llama-server 的安装部署验证

飞桨AI Studio星河社区-人工智能学习与实训社区

用的是 魔塔的免费资源 不太稳定

我的Notebook · 魔搭社区

cat /etc/os-release

 Ubuntu 22.04.5 LTS (Jammy Jellyfish) —— 这是一个长期支持(LTS)且完全受支持的现代 Linux 发行版,非常适合部署 llama.cpp + llama-server。Ubuntu 22.04 自带较新的 GCC(11+)、CMake(3.22+)和 Python 3.10+,无需手动升级工具链,部署过程非常顺畅。

一、安装系统依赖
sudo apt update

sudo apt install -y git build-essential cmake libssl-dev

二、克隆并编译 llama.cpp

1. 克隆仓库

git clone https://github.com/ggerganov/llama.cpp

cd llama.cpp

步骤 3:使用 CMake 构建 server

mkdir build

sudo apt install -y ninja-build

cd build

cmake .. -G Ninja

ninja server  报错了

rm -rf build  
重新来
mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release -DLLAMA_BUILD_SERVER=ON


make -j $(nproc) llama-server

三、准备 GGUF 模型

下载量化模型(以 Llama-3-8B-Instruct Q4_K_M 为例)
cd /mnt/data/

pip install --upgrade pip

pip install modelscope

modelscope download --model QuantFactory/Llama-3-8B-Instruct-Coder-GGUF Llama-3-8B-Instruct-Coder.Q6_K.gguf --local_dir /mnt/data

modelscope download --model ngxson/Qwen2.5-7B-Instruct-1M-Q4_K_M-GGUF qwen2.5-7b-instruct-1m-q4_k_m.gguf --local_dir /mnt/data

Qwen2.5-7B-Instruct-1M-Q4_K_M-GGUF · 模型库

Llama-3-8B-Instruct-Coder-GGUF · 模型库


# 启动

/mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/Llama-3-8B-Instruct-Coder.Q6_K.gguf --port 8080 --host 0.0.0.0 --ctx-size 2048 --threads 8

# 1. 后台启动

nohup /mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/Llama-3-8B-Instruct-Coder.Q6_K.gguf --port 8080 --host 0.0.0.0 --ctx-size 8192 --threads 8 > /mnt/workspace/llama-server.log 2>&1 &

nohup /mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/qwen2.5-7b-instruct-1m-q4_k_m.gguf --port 8080 --host 0.0.0.0 --ctx-size 8192 --threads 8 > /mnt/workspace/llama-server.log 2>&1 &

# 2. 验证

curl http://localhost:8080/health

# 3. 查日志

tail -f /mnt/workspace/llama-server.log

# 4. 停止

pkill -f llama-server

curl http://localhost:8080/completion \ -H "Content-Type: application/json" \ -d '{ "prompt": "<|start_header_id|>user<|end_header_id|>\n\n你好,请写一首关于春天的诗。<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n", "n_predict": 150, "stop": ["<|eot_id|>"] }'

curl http://localhost:8080/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "messages": [{"role": "user", "content": "你好!"}], "temperature": 0.7, "max_tokens": 50 }'

Read more

Unity+AI 用一句话制作完整小游戏:飞翔的牛马【AI纯添加-0手工代码】

Unity+AI 用一句话制作完整小游戏:飞翔的牛马【AI纯添加-0手工代码】

* 📢前言 * 🎮Unity+AI 用一句话制作完整小游戏:飞翔的牛马【AI纯添加-0手工代码】 * 一、准备工作 * 1.1 软件安装 * 1.2 使用Unity添加一个工程 * 二、需求描述 * 三、AI制作 * 四、问题反馈 * 五、游玩体验 * 六、图片素材填充 * 七、最终效果 * 八、心得体会 * 💡总结 📢前言 * 之前写过文章介绍怎样使用UnityMCP+Claude进行游戏辅助开发。 * 本文将使用Unity引擎+Claude制作一款 AI纯添加 - 0手工代码 的小游戏:飞翔的牛马。 * 切实上手体验一下 不用自己手敲任何代码 和 不在游戏引擎中进行任何游戏操作 来制作一款完整的小游戏。 🎮Unity+AI 用一句话制作完整小游戏:飞翔的牛马【AI纯添加-0手工代码】 一、

AI5 - 从手动标注到智能打标:AI数据标注工具实战全解析

AI5 - 从手动标注到智能打标:AI数据标注工具实战全解析

在 AI 技术飞速渗透各行各业的当下,我们早已告别 “谈 AI 色变” 的观望阶段,迈入 “用 AI 提效” 的实战时代 💡。无论是代码编写时的智能辅助 💻、数据处理中的自动化流程 📊,还是行业场景里的精准解决方案 ,AI 正以润物细无声的方式,重构着我们的工作逻辑与行业生态 🌱。今天,我想结合自身实战经验,带你深入探索 AI 技术如何打破传统工作壁垒 🧱,让 AI 真正从 “概念” 变为 “实用工具” ,为你的工作与行业发展注入新动能 ✨。 文章目录 * AI5 - 从手动标注到智能打标:AI数据标注工具实战全解析 🧠✨ * 一、为什么我们需要智能打标?🤔 * 1.1 手动标注的痛点 * 1.2 智能打标的崛起 * 二、智能打标系统架构设计 🏗️ * 核心组件说明: * 三、Java 实现智能打标核心逻辑

3.3 实战指南!CLAUDE.md与AGENTS.md详解:3步让AI深度理解你的项目

3.3 上下文的艺术(上):详解CLAUDE.md与AGENTS.md,让AI理解你的项目 引言 在AI原生开发中,如何让AI真正理解你的项目?答案就是上下文文档。CLAUDE.md和AGENTS.md是Claude Code中两个核心的上下文配置文件,它们就像项目的"说明书",告诉AI项目的结构、规范、风格等一切信息。 本文将深入解析这两个文件的作用、结构和最佳实践,让你能够编写出高质量的上下文文档,让AI成为你的最佳开发伙伴。 上下文文档的重要性 为什么需要上下文文档?

OpenClaw 深度解析:从个人 AI 助理到开源智能体平台

目录 一、什么是 OpenClaw? 二、OpenClaw 的核心架构与技术 2.1 运行架构 2.2 技能与工具机制 三、竞品分析:OpenClaw 在智能体生态中的对比 3.1 Agent 框架类(如 AutoGPT / BabyAGI) 3.2 本地智能体(如 LocalGPT + 工具链) 3.3 云服务型交互机器人(如 ChatGPT + Webhooks) 四、商业化成本分析 4.1 模型使用成本 4.2 工程与维护成本 4.3 运营成本 五、开源生态分析 5.