Three.js + WebGL 粒子动画实测:10 万粒子,流畅无压力

Three.js + WebGL 粒子动画实测:10 万粒子,流畅无压力

 ​​​​​

测试环境

Windows 桌面,WinForms + OpenTK (OpenGL 3.3)。

处理器    Intel(R) Core(TM) i9-14900HX (2.20 GHz)
机带 RAM    32.0 GB (31.7 GB 可用)
系统类型    64 位操作系统, 基于 x64 的处理器
操作系统版本    Windows 11 家庭中文版


实现原理

核心思路是:用 C# 承载页面,用 Three.js 组织 3D 场景,用 WebGL 做底层 GPU 绘制。

整体如下:

1. `WPF` 窗口中嵌入 `WebView2`。

2. 在 C# 中动态拼接 HTML,并通过 `NavigateToString` 注入页面。

3. 页面侧加载 `three.min.js`,创建 `Scene / Camera / WebGLRenderer`。

4. 粒子通过 `THREE.BufferGeometry` 与多个 `BufferAttribute` 存储。

5. 每帧在 JS 中更新粒子位置与生命周期,提交属性更新后由 GPU 渲染。

6. 页面每秒统计一次 FPS,通过 `window.chrome.webview.postMessage(...)` 回传给 C#,在 UI 上实时显示。

总结为:这是一个“CPU 负责粒子状态更新,GPU 负责大规模点精灵绘制”的混合型架构。


关键技术点

1. 跨技术栈集成:WPF 与 Web 3D 的桥接

- C# 端调用 `EnsureCoreWebView2Async()` 初始化浏览器内核。

- 使用 `WebMessageReceived` 接收前端消息,把 FPS 同步回桌面 UI。

- 这样可以让原生桌面应用拥有 WebGL 渲染能力,同时保留 WPF 的业务壳层。

2. 大规模粒子数据结构:BufferGeometry

- 粒子位置、颜色、尺寸、生命周期都以 `Float32Array` 组织。

- 通过 `geometry.setAttribute(...)` 绑定到 GPU 可消费的缓冲属性。

- 相比逐对象管理,**结构化数组 + 批量绘制**是海量粒子的基础。

3. 自定义 Shader:粒子视觉在 GPU 完成

- 顶点着色器负责点大小透视缩放、生命周期透明度系数计算。

- 片段着色器利用 `gl_PointCoord` 裁剪圆形粒子并做柔和边缘。

- 材质配置启用 `AdditiveBlending`,形成更亮的粒子叠加效果。

仿真更新模型:每帧 CPU 循环

当前粒子运动(重力、阻力、边界反弹、重生)都在 JS `for` 循环中执行。  

这使逻辑直观易控,但也带来一个关键瓶颈:**粒子数线性增长时,CPU 计算和属性回写成本同步上升。


核心代码

1. **粒子总量入口**

   - `private const int ParticleCount = 100000;`

   - 这是压测的直接控制阀,影响所有数组长度和每帧循环规模。

2. **GPU 友好数据准备**

   - `positions / colors / sizes / lifetimes / maxLifetimes` 都是 `Float32Array`。

   - `BufferAttribute` 绑定后由 `THREE.Points` 进行一次性批量绘制。

3. **渲染材质与 Shader**

   - `THREE.ShaderMaterial({...})` 挂载 `vertexShader` 与 `fragmentShader`。

   - 开启 `transparent + AdditiveBlending + depthWrite:false`,确保粒子叠加效果。

4. **每帧更新与提交**

   - `updateParticles(deltaTime)` 内遍历全部粒子更新状态。

   - 更新后设置:

     - `particles.geometry.attributes.position.needsUpdate = true`

     - `particles.geometry.attributes.lifetime.needsUpdate = true`

   - 这一步会触发 GPU 侧缓冲同步,粒子越多,带宽与提交压力越大。

5. **桌面侧 FPS 可观测性**

   - 页面端每秒 `postMessage('FPS: ' + fps)`。

   - C# 侧 `WebMessageReceived` 更新 `txtFPS.Text`。

   - 这让测试过程具备了稳定的在线观测能力。


实测结果

1 万粒子: FPS 145 , 非常流畅 ;

10 万粒子: FPS 53 ,流畅 ;

50 万粒子: FPS 14 ,明显卡顿 ;

100 万粒子: FPS 7,严重卡顿,接近不可用 ;


性能分析

1. 为什么 1 万到 10 万仍能跑得动?

- WebGL 批量绘制能力较强,点精灵渲染天然适合并行。

- 数据结构使用 `BufferGeometry`,减少了对象级 draw call。

- Shader 逻辑相对轻量,没有复杂纹理采样或后处理。

2. 为什么到 50 万、100 万会急剧下滑?

核心原因不是“GPU 不能画点”,而是**CPU + 数据传输 + GPU 渲染**三者叠加后的总成本爆炸:

- **CPU O(N) 更新成本**:每帧遍历所有粒子,计算速度、位置、碰撞、重生。

- **缓冲更新成本**:`position/lifetime` 每帧都标记 `needsUpdate`,意味着大体量数据频繁上传。

- **像素填充压力**:粒子数量增大后,叠加混合(Additive)会显著增加片段处理负担。

- **浏览器容器开销**:WebView2 本质是嵌入式浏览器,不是纯原生图形管线,存在额外调度成本。

3. 从数据看当前实现的可用区间

- **推荐实时区间**:1 万 ~ 10 万(视业务目标而定)。

- **风险区间**:>10 万 后帧率明显衰减,尤其在复杂效果叠加时。

- **极限演示区间**:几十万到百万可以“展示数量级”,但不适合交互型实时动画。


总结

1. 它验证了 `WebView2 + Three.js + WebGL` 路线在桌面应用中的**可行性**。  

2. 它给出了当前实现的**性能基线**:10 万以内可用,数十万后显著下降,百万级不可实时。  

3. 它说明了后续优化的重点不只是“继续堆 GPU”,而是要系统处理**CPU 更新模型与数据上传路径**。  

从这个演示效果,我们看到three.js的性能仅仅是opentk(opengl)的1/10 (https://blog.ZEEKLOG.net/LateFrames/article/details/158291013?spm=1001.2014.3001.5501), 可以看出来明显的区别:

Read more

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

【Windows安装openclaw,配置qwen模型和ollama本地模型,飞书群组添加机器人】

Windows11安装OpenClaw,配置千问Qwen模型及配置服务器本地模型Ollama,接入飞书机器人 * 第一步、安装Nodejs * 第二步、安装Git * 第三步、安装Openclaw * 配置本地大模型 * 第四步、配置飞书 第一步、安装Nodejs 1、减少后续各种报错情况,先安装Nodejs,下载地址:https://nodejs.org/zh-cn/download,选择对应操作系统,24版本太新,有些依赖不适配,本文选择22.22.0版本,node-v22.22.0-x64.msi 直接双击安装即可。 2、安装完成看一下版本信息,用管理员权限打开win的PowerShell 3、执行 node -v 第二步、安装Git 1、安装Git 访问地址 https://git-scm.com/install/

AirSim无人机仿真入门(一):实现无人机的起飞与降落

AirSim无人机仿真入门(一):实现无人机的起飞与降落

概述: 安装好所需要的软件和环境,通过python代码控制无人机进行起飞和降落。 参考资料: 1、知乎宁子安大佬的AirSim教程(文字教程,方便复制) 2、B站瑜瑾玉大佬的30天RL无人机仿真教程(视频教程,方便理解) 3、AirSim官方手册(资料很全,不过是纯英文的) AirSim无人机仿真入门(一):实现无人机的起飞与降落 * 1 安装AirSim * 1.1 参考教程 * 1.2 内容梳理 * 1.3 步骤总结 * 2 开始使用 AirSim * 2.1 参考教程 * 2.2 内容梳理 * 2.3 步骤总结 * 3 撰写python控制程序 * 3.1 参考教程 * 3.2 内容梳理

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

TWIST2——全身VR遥操控制:采集人形全身数据后,可训练视觉base的自主策略(基于视觉观测预测全身关节位置)

前言 我司内部在让机器人做一些行走-操作任务时,不可避免的需要全身遥操机器人采集一些任务数据,而对于全身摇操控制,目前看起来效果比较好的,并不多 * 之前有个CLONE(之前本博客内也解读过),但他们尚未完全开源 * 于此,便关注到了本文要解读的TWIST2,其核心创新是:无动捕下的全身控制 PS,如果你也在做loco-mani相关的工作,欢迎私我你的一两句简介,邀你加入『七月:人形loco-mani(行走-操作)』交流群 第一部分 TWIST2:可扩展、可移植且全面的人形数据采集系统 1.1 引言与相关工作 1.1.1 引言 如TWIST2原论文所说,现有的人形机器人远程操作系统主要分为三大类: 全身控制,直接跟踪人体姿态,包括手臂、躯干和腿部在内的所有关节以统一方式进行控制(如 HumanPlus [12],TWIST [1] ———— TWIST的介绍详见此文《TWIST——基于动捕的全身遥操模仿学习:教师策略RL训练,学生策略结合RL和BC联合优化(可训练搬箱子)》 部分全身控制,

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 无人机遥感目标检测数据集 飞机 储罐 棒球场 网球场篮球场 港口车辆桥梁检测 遥感图像中的地理空间目标检测

NWPU VHR-10数据集 遥感数据集 NWPU VHR-10数据集是 10个类别地理空间目标检测的挑战性数据集,共650张图片。 YOLO和COCO格式 数据集按默认划分比例:390张训练集、130张验证集、130张测试集。 手动标注了757架飞机、302艘船只、655个储罐、390个棒球场、524个网球场、159个篮球场、163个田径场、224个港口、124座桥梁和598辆车辆。 📊 一、数据集总体信息 项目描述数据集名称NWPU VHR-10(Northwestern Polytechnical University Very High Resolution 10-class Dataset)任务类型遥感图像中的地理空间目标检测(Object Detection in Remote Sensing Images)图像总数650 张(均为高分辨率遥感图像,源自 Google Earth 等平台)图像分辨率约 600×600