基本介绍
Qwen(通义千问)基础模型已经稳定训练了大规模高质量且多样化的数据,覆盖多语言(当前以中文和英文为主)。Qwen 目前提供多个版本,包括 1.8B、7B、14B、72B 等参数规模,同时还开源了 Qwen-VL、Qwen-Audio 两款多模态模型。作为业界领先的开源大模型之一,Qwen-72B 是少数开源的超大规模 Chat 版本模型,在推理能力上表现优异。
各模型特点及硬件需求如下:
- 1.8B/7B:适合个人电脑或单卡 GPU 运行,显存需求较低。
- 14B/72B:需要多卡 GPU 或高性能服务器,显存占用较大。
环境配置
前置依赖
确保系统已安装 Python 3.8 及以上版本,并配置好 CUDA 环境(若使用 GPU 加速)。
克隆项目
进入 Qwen 官方 GitHub 仓库拉取项目代码并安装依赖。
git clone https://github.com/QwenLM/Qwen.git
cd Qwen
pip install -r requirements.txt
建议创建虚拟环境以避免依赖冲突:
conda create -n qwen_env python=3.9
conda activate qwen_env
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txt
模型下载
考虑到算力限制,本示例使用 Qwen-1.8B-Chat(非基座模型)。模型下载主要有两种方式:HuggingFace 和魔搭社区(ModelScope)。
方式一:HuggingFace
国内网络可能不稳定,建议使用镜像站或代理。
# 安装 Git LFS
git lfs install
# 克隆模型仓库
git clone https://huggingface.co/Qwen/Qwen-1_8B-Chat
Python 代码下载:
from modelscope import snapshot_download
model_dir = snapshot_download('qwen/Qwen-1_8B-Chat', cache_dir='./model')
方式二:魔搭社区(ModelScope)
国内访问速度更快。
git lfs install
git clone https://www.modelscope.cn/qwen/Qwen-1_8B-Chat.git
Python 代码下载:
from modelscope import snapshot_download
model_dir = snapshot_download('qwen/Qwen-1_8B-Chat', cache_dir='./model')
模型调用
使用 transformers 库加载模型是最直接的方式,可验证环境配置是否正确。


