引言
在 Linux 服务器上部署 CUDA 环境是进行深度学习或高性能计算的基础步骤。以下流程基于实际生产经验整理,重点解决驱动兼容性、环境变量配置及 cuDNN 依赖问题。
检查 NVIDIA 驱动
首先确认系统是否已安装显卡驱动。输入命令:
nvidia-smi
如果输出包含 GPU 型号和显存信息,说明驱动正常,可跳过后续驱动安装步骤。若提示找不到命令,则需前往 NVIDIA 官网下载对应版本的驱动包进行安装。安装完成后再次执行上述命令验证。
配置编译环境
此时命令行输入 nvcc -V 通常会报错,因为编译器路径未加入环境变量。我们需要修改 ~/.bashrc 文件来导出相关路径:
vim ~/.bashrc
export LD_LIBRARY_PATH=/usr/local/cuda/lib64
export PATH=$PATH:/usr/local/cuda/bin
source ~/.bashrc
注意:部分系统库目录可能为 lib,请根据实际安装情况调整。保存后重新加载配置,再次运行 nvcc -V 应能显示编译器版本信息,例如 release 12.6。
安装 cuDNN
cuDNN 是 NVIDIA 提供的深度学习加速库,需确保其版本与 CUDA 版本匹配。使用 apt 安装对应包:
sudo apt-get update
sudo apt-get -y install cudnn9-cuda-12
若使用的是 CUDA 11 或其他版本,请替换对应的安装包名称。安装过程会自动处理依赖关系。
验证完成
最后,建议编写一个简单的测试程序或使用现有的深度学习框架(如 PyTorch)导入 torch 模块,确认 GPU 能被正确识别且无报错。至此,CUDA 开发环境即配置完毕。


