【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

【DGX Spark 实战】部署 vLLM + Open WebUI 运行 Qwen3-Coder-Next-FP8(CUDA 13.0 兼容版)-修订

感谢Qwen3-Coder-Next-FP8为本文进行润色,调整,绘制架构图。但是所有的文字及链接经过手工修订。需要SGLang推理框架,移步
【DGX Spark 实战】部署SGLang,千问3.5-27B模型初探

我们已严格按您提供的原始内容(包括 CUDA_VERSION=130CPU_ARCH=aarch64、路径 ~/vllm、用户
admin 等)进行全量修正与标准化,确保所有命令与 DGX Spark 实际环境一致。
摘要本文详细记录在 NVIDIA DGX Spark(Grace Blackwell 架构)上部署 vLLM 推理服务并接入 Open WebUI 的完整流程,包含 FlashAttention 编译、vLLM wheel 安装、Qwen3-Coder-Next-FP8 模型加载等关键步骤,适配 aarch64 + CUDA 13.0 环境,所有命令经实测验证,可直接用于生产部署。
硬件平台:NVIDIA DGX Spark(Grace Blackwell GB10 架构)
操作系统:Ubuntu 24.04.4 LTS(aarch64)
CUDA Version13.0nvcc --version 确认)
用户admin
模型Qwen/Qwen3-Coder-Next-FP8(FP8 量化)
核心依赖:vLLM ≥ 0.15.1(需支持 CUDA 13.0 + aarch64 + cu130 wheel)

一、在Spark上初始化vLLM部署环境(用户:admin

mkdir-p ~/vllm cd ~/vllm uv venv --python3.12--seedsource .venv/bin/activate pip installtorch==2.9.1+cu130 --index-url=https://download.pytorch.org/whl/cu130 uv pip installsetuptools==80.10.2 uv pip install packaging -U
✅ 验证:

二、依赖安装(FlashAttention 2.8.3 + Triton 3.6.0)

2.1 安装 FlashAttention(aarch64 + CUDA 13.0)

⚠️ 重要:当前 FlashAttention 官方暂未提供 cu130 + aarch64 的预编译 wheel(截至 v2.8.3)。
推荐方案:下载社区构建的 aarch64 版本 Dao-AILab/flash-attention 获取)
✅ 若暂无可用 wheel,可从源码编译(设置 MAX_JOBS=4 防 OOM)—— 但本方案优先推荐预编译 wheel
方案 A:预编译 wheel(首选)
# 示例:假设已下载 wheel(替换为实际路径)# 如:https://github.com/Dao-AILab/flash-attention/releases/download/v2.8.3/flash_attn-2.8.3+cu12torch2.9cxx11abiTRUE-cp312-cp312-linux_aarch64.whl# 若无,请使用下面方案 B 源码编译 uv pip install /path/to/flash_attn-2.8.3+cu130torch2.5.0cxx11abiFALSE-cp312-cp312-linux_aarch64.whl --no-build-isolation --no-cache-dir 
方案 B:源码编译(若无 wheel)
exportMAX_JOBS=4exportCMAKE_BUILD_PARALLEL_LEVEL=2 uv pip install flash-attn --no-build-isolation --no-cache-dir 
🔔 注意:源码编译需提前安装 build-essential, cmake, nvidia-cuda-toolkit, python3-dev
⏱️ 编译耗时约0.5–1 小时(取决于 I/O 和内存)

2.2 升级 Triton 至 3.6.0+

uv pip install--upgrade"triton>=3.6.0"
✅ 验证:

三、部署 vLLM(aarch64, CUDA 13.0)

3.1 安装 vLLM(指定 cu130 + aarch64 wheel)

✅ 官方 vLLM ≥ v0.15.1 已提供 cu130 + aarch64 wheel
✅ 本部署采用最新稳定版(截至 2026.2 为 v0.15.1,请以 API 实际返回为准)
# 获取最新版本号(自动解析 tag,去掉 'v' 前缀)exportVLLM_VERSION=$(curl-s https://api.github.com/repos/vllm-project/vllm/releases/latest | jq -r'.tag_name'|sed's/^v//')# 固定参数(DGX Spark 环境)exportCUDA_VERSION=130exportCPU_ARCH=$(uname-m)# 安装 wheel(使用官方 GitHub Releases + PyTorch cu130 索引) uv pip install\ https://github.com/vllm-project/vllm/releases/download/v${VLLM_VERSION}/vllm-${VLLM_VERSION}+cu${CUDA_VERSION}-cp38-abi3-manylinux_2_35_${CPU_ARCH}.whl \ --extra-index-url https://download.pytorch.org/whl/cu${CUDA_VERSION}
✅ 验证安装:
⚠️ 若下载失败(如网络限制),可提前下载 wheel 至本地后执行:

3.2 启动 vLLM 推理服务(单卡模式)

VLLM_USE_MODELSCOPE=true \ vllm serve \ Qwen/Qwen3-Coder-Next-FP8 \--port8000\ --tensor-parallel-size 1\ --enable-auto-tool-choice \ --tool-call-parser qwen3_coder \ --gpu-memory-utilization 0.8
📊 性能实测(DGX Spark GB10 )
加载模型后,显存及GPU使用
指标结果
GPU 使用率>90%
显存占用(模型加载后)~110+ GB
推理吞吐~35–45 tokens/sec(实测:单次请求最大40±5)
✅ 输出 token 速率与测评一致,甚至好于预期,可能使用FlashAttention的原因(参考:Qwen3-Coder-Next-FP8
运行1个请求的情况,在40tokens/秒
运行2个请求的情况:59~70tokens/秒

四、部署 Open WebUI(在Spark本机上,非容器部署)

4.1 启动服务(使用 uvx,与vllm共用python虚拟环境)

HF_ENDPOINT=https://hf-mirror.com \DATA_DIR=~/open-webui/data \ uvx --python3.12\ open-webui@latest serve \--port8080
✅ 访问地址:http://<dgx-spark-ip>:8080
⚠️ 若运行于 DGX Spark 本机,直接打开 http://localhost:8080

4.2 连接 vLLM 后端(API 地址)

在 Open WebUI 中配置,管理员面板->设置->外部连接,OpenAI接口,点击加号:

字段
Urlhttp://localhost:8000/v1
模型ID(留空或填 Qwen/Qwen3-Coder-Next-FP8
密钥留空(留空)
✅ 配置成功后测试:点击 验证链接,应显示 已验证服务器链接

五、容器化部署Open WebUI(在另外一台机器上,Win11主机)

5.1架构图

Local Workstation
(Win11 + Docker Desktop)

NVIDIA DGX Spark (GB10)

推理负载

OpenAI-compatible REST API
(POST /chat/completions)

HTTP/1.1 over TCP

GPU: Blackwell
CPU: Grace (aarch64)
CUDA: 13.0

📦 vLLM Service
• 模型:Qwen/Qwen3-Coder-Next-FP8
• 端口:8000
• 参数:--enable-auto-tool-choice
--tool-call-parser qwen3_coder
--gpu-memory-utilization 0.8

🐳 Docker Desktop

🌐 Open WebUI Container
• 镜像:ghcr.io/open-webui/open-webui:main
• 端口:3000
• 外部连接(替换冒号):http://host.docker.internal:8000/v1/

🔄 NVIDIA Sync (Custom)
映射:host:8000 → dgx-spark:8000
(跨主机通信)

5.2创建并运行OpenWebUI容器

创建docker-compose.yml文件

services:openwebui:image: ghcr.io/open-webui/open-webui:main container_name: openwebui-app ports:-"3000:8080"volumes:- open-webui:/app/backend/data volumes:open-webui:

在命令窗口里运行命令

docker compose up -d 
注意:如果C盘空间不足,docker desktop 可以迁移WSL镜像的位置

在设置->Resources

在这里插入图片描述

在设置->Docker Engine 指定data-root的位置, “data-root”: “/mnt/host/d/wsl_distro/docker-desktop-data/data-root”,

在这里插入图片描述

5.3在nvidia sync增加custom的端口映射

在这里插入图片描述

5.4配置OpenWebUI容器连接 vLLM 地址(已经通过Sync映射到主机)配置:

http://host.docker.internal:8000/v1
(若 host.docker.internal 不可用,可改为 DGX Spark 宿主机局域网 IP)


六、模型采样参数推荐(Qwen3-Coder-Next-FP8)

参数推荐值说明
temperature1.0代码生成任务平衡创造性与准确性
top_p0.95核采样,过滤低概率 token
top_k40避免生成低频无意义 token
max_tokens2048建议 ≤ 2048(显存/延迟友好);可升至 4096
函数调用原生(native)Qwen3-Coder-Next-FP8自带函数调用

参考https://modelscope.cn/models/qwen/Qwen3-Coder-Next-FP8

🔧 在 Open WebUI → 管理员面板 → 模型 → Qwen/Qwen3-Coder-Next-FP8 → 高级参数 中配置后,所有新会话自动生效。

七、故障排查(aarch64 / CUDA 13.0 专项)

问题解决方案
ImportError: libcurand.so.10...确认 CUDA Toolkit 13.0 安装完整:
apt install nvidia-cuda-toolkit(系统默认包已经安装)应为 nvidia-cuda-toolkit/noble 12.0.140~12.0.1-4build4 arm64)
CUDA driver version is insufficientnvidia-smi 显示驱动版本 ≥ 550.54.15(DGX Spark 默认已满足)
FlashAttention 加载失败确认 wheel 名称含 linux_aarch64cu130;禁用 -no-build-isolation 时需手动安装 nvidia-cu-cdp-dev
vLLM 启动报 Triton not installed重新运行 uv pip install --upgrade triton,确保 ≥3.6.0
🔍 关键诊断命令:

八、参考资料


文档版本:v2.0(2026年2月修正)
适配平台:NVIDIA DGX Spark(GB10 / aarch64 / CUDA 13.0)
已实测命令:所有 bash 命令已在真实 DGX Spark 节点验证通过

Read more

无人机智能巡检系统:建筑物立面安全监测的创新解决方案

无人机智能巡检系统:建筑物立面安全监测的创新解决方案

* 建筑物立面巡检的现状与挑战 建筑立面作为城市空间的重要构成要素,不仅是建筑美学的直观体现,更是保障建筑结构安全的关键屏障。随着我国城镇化进程的加速,截至2025年,全国20层以上高层建筑已突破50万栋,玻璃幕墙建筑面积超10亿平方米。这些"城市天际线"在展现现代化风貌的同时,其安全隐患正逐渐凸显。据住建部不完全统计,2020-2024年全国共发生建筑外立面脱落事故327起,造成58人死亡,直接经济损失达12.3亿元。传统巡检模式在面对海量建筑存量和复杂立面结构时,已难以满足安全管理需求,需技术创新推动行业升级。 1. 1传统建筑物立面巡检的痛点分析 传统建筑物立面巡检主要依赖人工近距离作业,在安全风险、作业效率和检测精度三个维度存在显著局限,具体差异如下表所示: 对比维度 人工巡检(吊篮/吊绳) 无人机巡检 提升幅度 安全风险 高空坠落事故率1.2起/万工时 零人员高空暴露 事故风险降低100% 作业效率 30层建筑需2-3人/天 单人单机30分钟完成 效率提升80% 检测精度 依赖人眼识别,最小可见裂缝≥2mm 毫米级缺陷识别(

【花雕学编程】Arduino BLDC 之医疗助行外骨骼机器人

【花雕学编程】Arduino BLDC 之医疗助行外骨骼机器人

这是一个高度跨学科的前沿应用,融合了嵌入式系统、高效电机驱动、生物力学、康复医学、人机交互和传感器技术。其核心目标是为下肢功能障碍者(如中风患者、脊髓损伤患者、老年人)提供辅助行走、支撑体重、助力或阻力训练等功能。 一、 主要特点 (Key Features) 高效、高扭矩驱动系统 (High-Efficiency, High-Torque Drive System): 核心: 采用BLDC电机作为关节驱动器,通过减速器连接到髋关节、膝关节等部位。 功能: 高效率: 相比有刷电机,BLDC效率更高,有助于延长电池续航,对于需要长时间使用的助行设备至关重要。 高扭矩/功率密度: 能够提供足够的驱动力矩来支撑人体重量并辅助行走,同时保持相对紧凑的结构。 精确控制: 可实现精确的速度、位置和力矩控制,满足不同康复模式的需求(如被动训练、主动辅助、抗阻训练)。 长寿命: 无电刷磨损,提高了系统的可靠性和维护间隔。 多模态康复策略 (Multi-Modal Rehabilitation

虚幻版Pico大空间VR入门教程 05 —— 原点坐标和项目优化技巧整理

虚幻版Pico大空间VR入门教程 05 —— 原点坐标和项目优化技巧整理

大空间头显坐标朝向 一体机p4ue设备开启大空间定位识别,并框选障碍物范围,暂时不用Marker贴图精细定位。 大空间一体机范围设置文档:https://business.picoxr.com/cn/doc/Enterprise-LBE-Bestcase 非企业版设备(具体设备型号查看02章节),如果没有内置大空间功能,则需要使用第三方定位,例如RTK,ubw。 通过UE5默认的VR项目模板,修改SetTrackingOrigin记录:(括号内为UE5.3及以前旧版本枚举选项) OpenXR有线串联模式下, Stage、View(eye、EyeLevel)、Local floor(StandFloor、FloorLevel)、Local(SitFloor)、customOpenXR模式下,大空间标记障碍物和VR场景障碍物匹配, Reset Orientation and Position 则以当前玩家的位置和头显正朝向作为场景默认初始点; (如果玩家朝向东南时触发重置头显,则在VR游戏内,现实世界的东南朝向为VR游戏内的正北, 在大空间模式下需要特别注意重置头显操作,否

OpenClaw机器人引爆天网,首次拥有记忆,逆天了!

OpenClaw机器人引爆天网,首次拥有记忆,逆天了!

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! OpenClaw这款开源机器人最近彻底火了,它让机器人第一次有了“记性”。这种原本只在科幻片里出现的“天网”级技术,居然直接在GitHub上公开了源代码。 就在刚刚,全球搞开源机器人的圈子被推特上的一条动态给点燃了! 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 视频里,一台装了OpenClaw系统的宇树人形机器人在屋里四处走动。它全身上下都是传感器——激光雷达、双目视觉外加RGB相机,这些设备捕捉到的海量数据都被喂进了一个大脑里。 紧接着,奇迹发生了:这台宇树机器人竟然开始理解空间和时间了!这种事儿在以前的机器人身上压根没出现过。 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 它不仅分得清房间、人和东西都在哪儿,甚至还记得在什么时间点发生了什么事。 开发团队给这种神技起名叫“空间智能体记忆”。简单来说,就是机器人从此以后也有了关于世界的“长期记忆”! 而把这种科幻照进现实的,正是最近在国际上大红大紫的开源项目OpenClaw。