引言
舞台设计正经历从传统布景向虚实融合的转变。随着 xR(扩展现实)与 AR(增强现实)技术的成熟,大型晚会开始尝试将两者结合,以突破物理空间的限制。浙江卫视苏宁易购超级秀是一次典型的实践案例,通过搭建无缝 LED 立方体空间,结合多机位跟踪与实时渲染系统,实现了虚拟场景与真人表演的深度绑定。本文基于该项目实际部署情况,拆解其技术架构、协同逻辑及关键难点解决方案。
一、项目背景与技术需求
1.1 场景概况
本次晚会核心在于视觉内容与节目情绪的具象化。现场搭建了由三块 LED 屏组成的无缝立方体拍摄空间,构建沉浸式环境。虚拟系统以 hecoos 服务器为核心,配合 Pixotope 服务器与 Notch 引擎,部署了 4 个机位(含机械摇臂与电轨追踪)。重点落地环节为李荣浩演唱部分,需实现虚拟房间组建与音符实体化等效果。
1.2 核心技术需求
为确保虚实融合流畅,主要解决以下四点:
- 双技术兼容:xR 负责构建空间,AR 负责元素叠加,需避免冲突。
- 内容契合:虚拟场景需随音乐情绪动态变化,如房间组建节奏。
- 精准跟踪:4 个机位需实时同步数据,确保透视关系不穿帮。
- 稳定渲染:多服务器协同输出,保证无卡顿掉帧。
二、技术架构与硬件部署
系统采用'hecoos 基础 + Pixotope 辅助 + Notch 渲染'的全链路架构。各组件分工明确,具体配置如下:
| 硬件设备/系统 | 数量/配置 | 核心功能 | 协同逻辑 |
|---|---|---|---|
| hecoos 服务器 | 若干(含 4 台装载 Notch) | 虚拟系统核心支撑,承载实时渲染与数据处理 | 接收机位跟踪数据与虚拟资产,联动 Pixotope,输出画面至 LED 屏 |
| Pixotope 服务器 | 1 台 | 辅助虚拟合成,优化兼容性 | 与 hecoos 实时联动,处理合成数据,弥补单一系统短板 |
| Notch 引擎 | 4 套 | 虚拟场景与 AR 元素实时渲染 | 依托 hecoos 算力,完成动态渲染并同步至合成节点 |
| 机位系统 | 4 个 | 拍摄与跟踪 | 采集位移姿态数据,传输至 hecoos 确保运镜同步 |
| LED 立方体屏 | 3 块 | 构建沉浸式空间 | 接收渲染画面,呈现虚拟场景配合 AR 叠加 |
| 视觉制作团队 | DNT 视觉团队 | 虚拟资产设计与制作 | 导入资产至 hecoos 系统,适配渲染参数 |
架构分工逻辑
- 技术协同:xR 依托 LED 屏还原场景,AR 聚焦元素叠加,通过服务器协同实现无缝融合。
- 算力调度:hecoos 负责核心控制,Notch 专攻动态渲染,Pixotope 优化合成精度。
- :固定机位捕捉特写,摇臂展现全景,电轨实现平滑移动,所有数据实时同步。


