昇腾 NPU 部署 Llama 2 模型的性能测试与优化实践
面对高昂的 NVIDIA GPU 成本,许多团队在部署大模型时开始关注华为昇腾(Ascend)NPU。其自主可控的达芬奇架构、日益完善的软件开源生态以及云上可得的测试资源,构成了高性价比的替代方案。本文记录使用云端昇腾环境完成从环境配置、模型部署到性能测试与优化的全过程。
环境搭建
在云平台创建实例时,几个关键配置决定了后续成败:
- 计算类型:务必选择
NPU。手滑选了 CPU 或 GPU,后续步骤将无效。 - 规格选择:
NPU basic规格(1*Ascend 910B, 32vCPU, 64GB 内存)是运行 Llama-2-7B 的甜点配置。 - 镜像选择:必须选择预装了 CANN、PyTorch 适配器等核心工具的镜像,例如
euler2.9-py38-torch2.1.0-cann8.0-openmind0.6-notebook。这能省去大量手动配置时间。
环境验证
实例启动后,确认 NPU 可用。在终端依次执行以下命令:
# 检查系统与 Python 版本
cat /etc/os-release
python3 --version
# 检查 PyTorch 及 torch_npu
python -c "import torch; print(f'PyTorch 版本:{torch.__version__}')"
python -c "import torch_npu; print(f'torch_npu 版本:{torch_npu.__version__}')"
若未安装,先升级 pip 再安装:
pip install --upgrade pip
pip install torch torchvision torchaudio
pip install torch-npu
看到 PyTorch 版本:2.4.0 和 torch_npu 版本:2.4.0.post4 说明正常可用。
常见陷阱:直接运行 torch.npu.is_available() 会报错 AttributeError。torch_npu 是一个独立插件,必须显式导入后才能注册 NPU 后端。正确的验证方式是:
python -c "import torch; import torch_npu; print(torch.npu.is_available())"
看到 True,恭喜你,NPU 环境准备就绪!
模型部署
环境搞定,接下来加载 Llama 2。
依赖安装与模型下载
安装运行 Llama 2 所必须的库,建议使用国内镜像加速:
pip install transformers accelerate -i https://pypi.tuna.tsinghua.edu.cn/simple
模型下载权限问题:直接访问 Meta 官方仓库需要申请权限且国内速度慢。解决方案是使用社区镜像版本,如 NousResearch/Llama-2-7b-hf,无需权限,下载稳定。
核心部署代码
创建一个 Python 脚本,以下是核心代码及注意事项:
import os
os.environ['HF_ENDPOINT'] =
torch
torch_npu
transformers AutoModelForCausalLM, AutoTokenizer
time
MODEL_NAME =
DEVICE =
()
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
torch_dtype=torch.float16,
low_cpu_mem_usage=
)
()
model = model.to(DEVICE)
model.()
prompt =
inputs = tokenizer(prompt, return_tensors=).to(DEVICE)
torch.no_grad():
start_time = time.time()
outputs = model.generate(**inputs, max_new_tokens=)
end_time = time.time()
generated_text = tokenizer.decode(outputs[], skip_special_tokens=)
()
()


