环境搭建
1. 计算资源选择
在云平台创建 Notebook 实例时,关键配置决定了后续步骤的成败:
- 计算类型:务必选择
NPU。选择 CPU 或 GPU 会导致后续步骤无法运行。 - 规格选择:
NPU basic规格(1*Ascend 910B, 32vCPU, 64GB 内存)是运行 Llama-2-7B 的推荐配置。 - 镜像选择:必须选择预装了 CANN、PyTorch 适配器等核心工具的镜像,例如
euler2.9-py38-torch2.1.0-cann8.0-openmind0.6-notebook。这能省去大量手动配置环境的时间。
2. 环境验证
实例启动后,确认 NPU 可用。在终端中依次执行以下命令:
# 检查系统与 Python 版本
cat /etc/os-release
python3 --version
# 检查 PyTorch 及 torch_npu
python -c "import torch; print(f'PyTorch 版本:{torch.__version__}')"
python -c "import torch_npu; print(f'torch_npu 版本:{torch_npu.__version__}')"
若未安装,可先执行 pip install --upgrade pip,然后安装相关包:
pip install torch torchvision torchaudio
pip install torch-npu
看到 PyTorch 版本:2.4.0 和 torch_npu 版本:2.4.0.post4 说明正常可用。
常见坑点:直接运行 torch.npu.is_available() 会报错 AttributeError。原因是 torch_npu 是一个独立的插件,必须显式导入后才能注册 NPU 后端。正确的验证方式是:
python -c "import torch; import torch_npu; print(torch.npu.is_available())"
看到 True 即表示 NPU 环境准备就绪。
模型部署
1. 依赖安装与模型下载
安装运行 Llama 2 所必须的库,建议使用国内镜像加速:
pip install transformers accelerate -i https://pypi.tuna.tsinghua.edu.cn/simple
模型下载权限问题:直接访问 Meta 官方的 Llama 2 仓库需要申请权限且国内下载速度慢。解决方案是使用社区镜像版本,如 NousResearch/Llama-2-7b-hf,无需权限且下载稳定。
2. 核心部署代码
创建 Python 脚本(如 llama_demo.py),核心代码如下:
import os
os.environ['HF_ENDPOINT']='https://hf-mirror.com'
import torch
import torch_npu
transformers AutoModelForCausalLM, AutoTokenizer
time
MODEL_NAME =
DEVICE =
()
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
torch_dtype=torch.float16,
low_cpu_mem_usage=
)
()
model = model.to(DEVICE)
model.()
prompt =
inputs = tokenizer(prompt, return_tensors=).to(DEVICE)
torch.no_grad():
start_time = time.time()
outputs = model.generate(**inputs, max_new_tokens=)
end_time = time.time()
generated_text = tokenizer.decode(outputs[], skip_special_tokens=)
()
()


