Phi-3-Vision-128K-Instruct 开源镜像及国产昇腾/寒武纪平台适配指南
1. 模型简介
Phi-3-Vision-128K-Instruct 是一个轻量级的多模态开源模型,支持 128K 超长上下文处理能力。该模型基于高质量文本和视觉数据训练,特别擅长图文对话任务。作为 Phi-3 模型家族成员,它经过监督微调和直接偏好优化,在指令遵循和安全性方面表现出色。
主要技术特点:
- 支持图文多模态输入
- 128K 超长上下文处理
- 轻量级架构设计
- 强大的推理能力
- 优化的安全机制
2. 环境准备与部署
2.1 硬件要求
本镜像适配国产昇腾 (Ascend) 和寒武纪 (Cambricon) 平台,建议配置:
- 内存:32GB 以上
- 显存:16GB 以上
- 存储:50GB 可用空间
2.2 部署验证
使用以下命令检查服务是否启动成功:
cat /root/workspace/llm.log
成功部署后,日志将显示类似以下内容:
INFO: Application startup complete. INFO: Uvicorn running on http://0.0.0.0:8000
3. 模型调用方法
3.1 通过 Chainlit 前端调用
Chainlit 提供了友好的 Web 界面与模型交互。启动后访问指定端口即可使用。
典型调用流程:
- 上传图片或输入文本
- 模型分析并生成响应
- 查看多轮对话结果
3.2 基础 API 调用
也可以通过 REST API 直接调用模型服务:
import requests
url = "http://localhost:8000/v1/chat/completions"
headers = {"Content-Type": "application/json"}
data = {
"model": "phi-3-vision-128k-instruct",
"messages": [
{"role": "user", "content": "描述这张图片的内容"},
{"role": "user", "content": "图片 base64 编码数据"}
]
}
response = requests.post(url, headers=headers, json=data)
print(response.json())

