llama.cpp + llama-server 的安装部署验证

飞桨AI Studio星河社区-人工智能学习与实训社区

用的是 魔塔的免费资源 不太稳定

我的Notebook · 魔搭社区

cat /etc/os-release

 Ubuntu 22.04.5 LTS (Jammy Jellyfish) —— 这是一个长期支持(LTS)且完全受支持的现代 Linux 发行版,非常适合部署 llama.cpp + llama-server。Ubuntu 22.04 自带较新的 GCC(11+)、CMake(3.22+)和 Python 3.10+,无需手动升级工具链,部署过程非常顺畅。

一、安装系统依赖
sudo apt update

sudo apt install -y git build-essential cmake libssl-dev

二、克隆并编译 llama.cpp

1. 克隆仓库

git clone https://github.com/ggerganov/llama.cpp

cd llama.cpp

步骤 3:使用 CMake 构建 server

mkdir build

sudo apt install -y ninja-build

cd build

cmake .. -G Ninja

ninja server  报错了

rm -rf build  
重新来
mkdir build && cd build
cmake .. -DCMAKE_BUILD_TYPE=Release -DLLAMA_BUILD_SERVER=ON


make -j $(nproc) llama-server

三、准备 GGUF 模型

下载量化模型(以 Llama-3-8B-Instruct Q4_K_M 为例)
cd /mnt/data/

pip install --upgrade pip

pip install modelscope

modelscope download --model QuantFactory/Llama-3-8B-Instruct-Coder-GGUF Llama-3-8B-Instruct-Coder.Q6_K.gguf --local_dir /mnt/data

modelscope download --model ngxson/Qwen2.5-7B-Instruct-1M-Q4_K_M-GGUF qwen2.5-7b-instruct-1m-q4_k_m.gguf --local_dir /mnt/data

Qwen2.5-7B-Instruct-1M-Q4_K_M-GGUF · 模型库

Llama-3-8B-Instruct-Coder-GGUF · 模型库


# 启动

/mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/Llama-3-8B-Instruct-Coder.Q6_K.gguf --port 8080 --host 0.0.0.0 --ctx-size 2048 --threads 8

# 1. 后台启动

nohup /mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/Llama-3-8B-Instruct-Coder.Q6_K.gguf --port 8080 --host 0.0.0.0 --ctx-size 8192 --threads 8 > /mnt/workspace/llama-server.log 2>&1 &

nohup /mnt/workspace/llama.cpp/build/bin/llama-server -m /mnt/data/qwen2.5-7b-instruct-1m-q4_k_m.gguf --port 8080 --host 0.0.0.0 --ctx-size 8192 --threads 8 > /mnt/workspace/llama-server.log 2>&1 &

# 2. 验证

curl http://localhost:8080/health

# 3. 查日志

tail -f /mnt/workspace/llama-server.log

# 4. 停止

pkill -f llama-server

curl http://localhost:8080/completion \ -H "Content-Type: application/json" \ -d '{ "prompt": "<|start_header_id|>user<|end_header_id|>\n\n你好,请写一首关于春天的诗。<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n", "n_predict": 150, "stop": ["<|eot_id|>"] }'

curl http://localhost:8080/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "messages": [{"role": "user", "content": "你好!"}], "temperature": 0.7, "max_tokens": 50 }'

Read more

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 除了 OpenClaw,今天 AI 热榜还有什么值得看?我把 5 个重点方向讲清楚了 * 1. 我先说结论:今天这波 AI 热榜,最重要的不是“谁最火”,而是“风向变了” * 2. GoogleCloudPlatform / generative-ai:平台生态正在成为真正的护城河 * 3. MiroFish:群体智能和多智能体,开始从概念走向更具体的产品叙事

告别复杂配置!Z-Image-Turbo开箱即用的AI绘画体验

告别复杂配置!Z-Image-Turbo开箱即用的AI绘画体验 1. 引言:为什么你需要关注 Z-Image-Turbo? 在当前 AI 图像生成技术飞速发展的背景下,用户对文生图模型的要求已不再局限于“能画出来”,而是追求高质量、高速度、低门槛和强可控性。然而,许多开源模型仍面临部署复杂、显存占用高、推理缓慢等问题,极大限制了普通开发者和创作者的实际使用。 正是在这一背景下,阿里巴巴通义实验室推出的 Z-Image-Turbo 成为一股清流。作为 Z-Image 系列的蒸馏版本,它以仅需 8 步推理即可生成照片级图像 的能力,结合出色的中英文提示理解与消费级显卡友好性(16GB 显存可运行),重新定义了高效文生图的标准。 更关键的是,ZEEKLOG 镜像构建团队推出的 Z-Image-Turbo 开源镜像 实现了真正的“开箱即用”——内置完整模型权重、无需联网下载、集成 WebUI 与 API、支持进程守护,大幅降低了部署成本。本文将带你全面了解该模型的技术优势,

用AIGC生成测试周报:从Jira、Git、CI日志中自动提炼关键指标

用AIGC生成测试周报:从Jira、Git、CI日志中自动提炼关键指标

测试周报自动化转型的迫切性‌ 每周一,对于许多测试工程师而言,可能都是从整理上周的“数据残骸”开始:打开不同的浏览器标签页,登录Jira查看新增缺陷和待关闭的BUG,翻阅Git提交记录寻找与测试关联的代码变更,再到CI/CD平台(如Jenkins、GitLab CI)的日志海洋中,搜寻失败的构建和测试用例执行报告。这个过程耗时耗力,且容易出错。更重要的是,这种碎片化的数据罗列,难以直观呈现测试工作的核心价值与项目风险的动态变化。 AIGC的引入,为破解这一困境提供了全新范式。它并非简单地“复制粘贴”数据,而是通过自然语言处理(NLP)、数据挖掘与智能分析,理解数据背后的上下文,自动汇总、关联、解读并生成一份内容丰富、重点突出、具备可读性和行动指引的测试周报。 核心:构建自动化数据管道与指标提炼模型‌ 一个有效的AIGC测试周报生成系统的核心在于‌数据源整合‌与‌智能指标提炼‌。 1. 数据源的接入与结构化‌ 首先,需要建立与三个核心系统的自动化数据连接: Jira连接‌:通过Jira REST API,定期拉取指定项目、

AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比

快速体验 在开始今天关于 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 AIGC视频生成成本优化实战:文字+图片输入下20秒与30秒视频的模型选型与价格对比 背景痛点:被浪费的每一秒都在烧钱 最近在做一个短视频自动生成项目时,发现一个扎心现象:用AIGC生成的30秒视频,实际有效内容往往只有20秒左右。多出来的10秒黑屏或重复画面,不仅让用户观感下降,