WSL2 Ubuntu 部署 llama.cpp 指南
在 WSL2 Ubuntu 环境下编译部署 llama.cpp 的方法,涵盖 CPU 与 GPU(CUDA)后端配置步骤。内容包括克隆仓库、安装依赖、环境变量设置及模型下载流程,支持从 Hugging Face 或 ModelScope 获取 GGUF 格式模型,旨在帮助用户在本地高效运行大语言模型。

在 WSL2 Ubuntu 环境下编译部署 llama.cpp 的方法,涵盖 CPU 与 GPU(CUDA)后端配置步骤。内容包括克隆仓库、安装依赖、环境变量设置及模型下载流程,支持从 Hugging Face 或 ModelScope 获取 GGUF 格式模型,旨在帮助用户在本地高效运行大语言模型。

llama.cpp 是一个完全由 C 与 C++ 编写的轻量级推理框架,支持在 CPU 或 GPU 上高效运行 Meta 的 LLaMA 等大语言模型(LLM),设计上尽可能减少外部依赖,能够轻松在多种后端与平台上运行。
采用本地编译的方法在设备上安装 llama.cpp。
在 WSL 中打开终端:
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp
编译项目前,先安装所需依赖项:
sudo apt update
sudo apt install -y build-essential cmake git
# llama.cpp 的某些功能依赖 libcurl,如 llama-download 的自动下载模型
sudo apt install -y libcurl4-openssl-dev
# 如果要使用 python 接口,还需要
sudo apt install -y python3 python3-pip
pip3 install numpy
默认使用 CPU 版本编译:
cmake -B build
cmake --build build --config Release
# cmake --build build --config Release -j 8
# -j 8 可加速编译过程,视你的 CPU 核心数而定
如果你想使用 GPU(推荐支持 CUDA 的 NVIDIA 显卡),需要先安装 CUDA Toolkit。由于 WSL2 默认不会自动识别 Windows 主机上的 CUDA Toolkit,因此需要特殊处理。
重新编译带 CUDA 的 llama.cpp。
设置 CUDA 环境变量:
export PATH=/usr/local/cuda/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH
export CUDACXX=/usr/local/cuda/bin/nvcc
source ~/.bashrc
安装 CUDA Toolkit 的 stub(轻量化开发头文件)。虽然你已经有了 CUDA runtime(用于运行模型),但 llama.cpp 编译阶段还需要 C++ 头文件和 nvcc 编译器 —— 你需要在 WSL2 里补装开发包:
sudo apt update
# 这里直接安装了 CUDA12 的整个工具包
sudo apt install -y cuda
# 验证 nvcc --version
在子系统中验证 GPU 是否可用。在 WSL2 中运行:
nvidia-smi
如果成功看到你的 GPU 显示状态(如 RTX 3060、显存使用情况等),说明 CUDA 运行库已经桥接成功,可以继续。
在 Windows 主机上确认:1)安装了支持 WSL 的 NVIDIA 驱动(必须是 DCH 驱动);2)安装好 WSL CUDA Toolkit(可以只装驱动和运行库,不需要开发工具)。
如何安装 WSL CUDA Toolkit:
i. 下载 NVIDIA GeForce Game Ready(根据自己的 GPU 版本进行选择),下载网址:https://www.nvidia.com/Download/index.aspx ii. 移走原先的 GPG key
sudo apt-key del 7fa2af80
iii. 下载 CUDA Toolkit
wget https://developer.download.nvidia.com/compute/cuda/repos/wsl-ubuntu/x86_64/cuda-wsl-ubuntu.pin
sudo mv cuda-wsl-ubuntu.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.9.1/local_installers/cuda-repo-wsl-ubuntu-12-9-local_12.9.1-1_amd64.deb
sudo dpkg -i cuda-repo-wsl-ubuntu-12-9-local_12.9.1-1_amd64.deb
sudo cp /var/cuda-repo-wsl-ubuntu-12-9-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt-get -y install cuda-toolkit-12-9
如果你用 CPU 生成过编译文件,执行新的 make 指令时可能会报错。先使用 rm -rf build 把之前的清空:
rm -rf build
cmake -B build -DGGML_CUDA=ON
cmake --build build --config Release -j 8
# -j 8 可加速编译过程,视你的 CPU 核心数而定
# 其实重启电脑也可以达到一样的效果
进入网站查看 llama.cpp 支持的所有模型列表。
我们推荐首先尝试较为主流的 LLaMA 2、LLaMA 3、Mistral、Qwen、ChatGLM 等系列模型。常见的 LLM 模型大小有 1B、7B、13B 等,一般来说,模型规模越大,生成的质量越好,但是运行时内存(推理时所需内存)也会随之增长。为避免频繁出现 OOM (Out of the memory) 的现象,我们推荐从较小的 LLM 开始调试。
注册 Hugging Face 账号后,可以添加自己的硬件设备信息,如下:
之后 Hugging Face 会对你的硬件能力做出评估:
此时再选择相应的模型,右侧 Hardware Compatibility 面板用于帮助用户根据自己设备的性能,选择合适的量化模型文件(GGUF 格式)。
以第一行为例,Q4_K_M 是模型的量化精度,数字越大精度越高,越接近原始模型,但也更占内存;2.5GB 下载后模型文件所占空间,也是运行所需的最低内存估算:
这里使用手动从 Hugging Face 官网下载的方法,打开你想下载的模型主页,如: https://huggingface.co/Qwen/Qwen3-0.6B-GGUF
然后在 Files and versions 中找到对应的 .gguf 文件下载并保存到你希望的目录即可。
ModelScope 是阿里云提供的 AI 模型平台,也支持中文大模型。如果你无法访问 Hugging Face 或下载速度慢,推荐使用 ModelScope 下载。
首先安装 ModelScope 所需库(推荐使用虚拟环境):
pip install modelscope
然后运行以下 Python 脚本:
from modelscope import snapshot_download
model_dir = snapshot_download(
'Qwen/Qwen3-0.6B-GGUF', # 替换为你想要下载的模型名称,推荐下载 .gguf 格式的量化模型,适用于 llama.cpp
cache_dir='./models/qwen-0.6b-gguf', # 设置本地保存路径
revision='master' # 可指定具体版本
)
print(f"Model saved at {model_dir}")
最后耐心等待即可。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML 转 Markdown 互为补充。 在线工具,Markdown 转 HTML在线工具,online