llama.cpp 多 GPU 分布式计算优化实践指南
多 GPU 架构解析:从设备发现到任务调度
llama.cpp 通过 GGML 后端实现跨设备计算调度,其核心机制位于 src/llama.cpp 的设备管理模块。系统启动时会自动扫描所有可用计算设备,按优先级分为 GPU、集成 GPU(iGPU) 和 RPC 服务器三类,相关代码逻辑如下:
// 设备分类与优先级排序(src/llama.cpp:190-248)
std::vector<ggml_backend_dev_t> gpus;
std::vector<ggml_backend_dev_t> igpus;
std::vector<ggml_backend_dev_t> rpc_servers;
// 优先添加 RPC 服务器,减少网络传输
model->devices.insert(model->devices.begin(), rpc_servers.begin(), rpc_servers.end());
// 其次添加独立 GPU
model->devices.insert(model->devices.end(), gpus.begin(), gpus.end());
// 最后添加集成 GPU(仅当无其他设备时)
if (model->devices.empty()) {
model->devices.insert(model->devices.end(), igpus.begin(), igpus.end());
}
设备选择遵循"能力优先"原则,独立 GPU 优先于集成显卡,本地设备优先于网络 RPC 节点。每个设备会显示其类型、ID 和可用显存信息,典型输出如下:
llama_model_load_from_file: using device 0 (GPU) (NVIDIA GeForce RTX 4090) (PCIe 4.0) - 23028 MiB free
llama_model_load_from_file: using device 1 (GPU) (NVIDIA GeForce RTX 3060) (PCIe 3.0) - 11019 MiB free
环境配置与编译优化
编译参数配置
启用多 GPU 支持需在编译时指定后端类型,推荐使用 CMake 配置:

