背景
面对高昂的 NVIDIA GPU 成本,许多团队在部署大模型时寻求高性价比方案。华为昇腾(Ascend)NPU 凭借自主可控的达芬奇架构及日益完善的软件生态,成为重要选择。本文记录使用云端环境完成从配置、部署到测试优化的全过程,提供真实踩坑经验。
环境搭建
在云平台创建实例时,关键配置决定后续成败:
- 计算类型:务必选择
NPU。选错 CPU/GPU 会导致后续步骤无效。 - 规格选择:
NPU basic规格(1*Ascend 910B, 32vCPU, 64GB 内存)是运行 Llama-2-7B 的甜点配置。 - 镜像选择:必须选择预装 CANN、PyTorch 适配器的镜像,如
euler2.9-py38-torch2.1.0-cann8.0-openmind0.6-notebook,可省去大量手动配置时间。
实例启动后,首先确认 NPU 可用。在终端执行以下命令:
# 检查系统与 Python 版本
cat /etc/os-release
python3 --version
# 检查 PyTorch 及 torch_npu
python -c "import torch; print(f'PyTorch 版本:{torch.__version__}')"
python -c "import torch_npu; print(f'torch_npu 版本:{torch_npu.__version__}')"
若未安装,先升级 pip 再安装:
pip install --upgrade pip
pip install torch torchvision torchaudio
pip install torch-npu
看到版本信息说明正常。注意直接运行 torch.npu.is_available() 会报错,因为 torch_npu 是独立插件,需显式导入:
python -c "import torch; import torch_npu; print(torch.npu.is_available())"
输出 True 即表示环境就绪。
模型部署
环境确认后,开始加载 Llama 2。
依赖安装
建议使用国内镜像加速:
pip install transformers accelerate -i https://pypi.tuna.tsinghua.edu.cn/simple
模型下载
Meta 官方仓库需申请权限且国内下载慢,建议直接使用社区镜像版本 NousResearch/Llama-2-7b-hf,无需权限且稳定。
核心代码
创建 Python 脚本,以下是核心逻辑及注意事项:
import os
os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'
import torch
import torch_npu # 切记!必须在任何 NPU 操作之前导入
from transformers import AutoModelForCausalLM, AutoTokenizer
time
MODEL_NAME =
DEVICE =
()
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
torch_dtype=torch.float16,
low_cpu_mem_usage=
)
()
model = model.to(DEVICE)
model.()
prompt =
inputs = tokenizer(prompt, return_tensors=).to(DEVICE)
torch.no_grad():
start_time = time.time()
outputs = model.generate(**inputs, max_new_tokens=)
end_time = time.time()
generated_text = tokenizer.decode(outputs[], skip_special_tokens=)
()
()


