比肩英伟达Jetson Orin NX-国产机器人大脑RDK-S100评测

比肩英伟达Jetson Orin NX-国产机器人大脑RDK-S100评测

提起机器人开发平台,目前行业内较为流行的当属英伟达的Jetson Orin 和高通的RB5。凭借英伟达成熟的GPU技术,以及高通在手机SoC领域积累的高性能优势,二者能够较为顺畅地将既有技术栈迁移至机器人平台。然而,这些企业均来自国外。那么,国内是否也有同样出色的机器人平台呢?答案是肯定的——这正是本文将要为大家介绍的地瓜机器人RDK-S100。

地瓜机器人源自以自动驾驶SoC闻名业界的地平线机器人,目前专注于机器人相关领域的研发。近年来,公司已陆续推出X3、X5等芯片组平台,并实现大规模量产。而此次介绍的S100芯片组,则是其最新一代产品,对应地平线J6平台。与英伟达Orin Nano模组及高通RB5模组类似,S100芯片组同样采用SIP模组形式供货,集成有S100主控芯片、DDR内存及PMIC等关键部件。而RDK-S100,正是基于该SIP模组打造的官方评估板。

本文将从硬件,软件两个方面,大致介绍一下RDK-S100。

硬件介绍

开发板的外包装,正面是开发板的名称,背面的文字说明了开发板硬件的配置。

包装内包含开发板一个(SIP模组和散热器已经安装上去),电源一个

开发的正反面。这里只能拆下盖子,散热器是用硅脂粘在上面的,无法拆卸

主要硬件配置如下

地瓜机器人S100,搭载六核Cortex-A78AE,4xCortex-R52,Mali-G78AE GPU,以及高达80/128TOPS算力的BPU

12GB内存,规格为96bit LPDDR5,6400Mbps

64GB EMMC,EMMC芯片厂商为三星,规格为5.1 (HS400)

一个HDMI接口,最高支持 2560x1440@60Hz

3组4lane MIPI CSI-2扩展口

4 x USB 3.0 Type-A 接口
1 x USB 2.0 Type-C(镜像烧录、MCU/Main Domain 串口调试)
1 x JTAG 调试接口(Main & MCU Domain)
1 x 40-Pin GPIO(SPI、I2C、I2S、PWM、UART 等)
1 x MCU 接口扩展(供 MCU Domain 使用)

AP6275S,使用PCIE2.0接口,支持WIFI6 5G/2.5G,BT4.2

2 x RJ45 接口(1000M 以太网)
M.2 Key E(接入 WiFi & BT 模组)

电源口支持12-20V DC供电

其接口分布图如下

目前售价,12G内存+64G EMMC规格核心板+底板2799元

S100是一款高度集成的SoC,定位堪称“全能型选手”。它不仅搭载了6核Cortex-A78AE高性能CPU与顶级的Mali-G78AE GPU,还集成了算力强大的BPU(AI处理单元)。更值得一提的是,S100内置了四核Cortex-R52实时处理器。作为Cortex-R系列中最先进的处理器之一,R52具备出色的实时响应能力和高阶安全机制。这意味着在机器人应用中,无需再外挂MCU,即可实现高实时性控制任务。

RDK-S100作为官方开发板,充分扩展了S100的各类接口,便于开发者全面评估S100的各项功能。即便将其直接用作AI盒子使用,该平台所提供的算力也显著高于同价位竞品,堪称高性价比的算力代表。

操作系统

目前地瓜机器人为RDK-S100提供了ubuntu系统,此系统源码,需要签订NDA之后才能开放,个人用户只能下载到镜像,下载地址为

https://archive.d-robotics.cc/downloads/os_images/rdk_s100/

解压之后得到一个名为product.zip的压缩包,这里面包含了分区镜像。需要将其解压

下载镜像之后还需要下载驱动和烧录工具。

驱动下载地址为

https://archive.d-robotics.cc/downloads/software_tools/winusb_drivers/

下载之后,解压sunrise5_winusb.zip,然后管理员身份执行sunrise5_winusb下面的install_driver.bat脚本即可。在安装驱动的情况下,将开发板此处的按钮,拨到上方,开发板即进入烧录模式

此时插上USB线,设备管理器可以看到一个新设备。说明驱动安装完成

烧录工具下载地址为

https://archive.d-robotics.cc/downloads/software_tools/download_tools/

下载之后解压,打开D-navigation-win32-x64下面的D-navigation.exe即可

按下图配置,配置好之后点击开始升级

烧录成功会有如下提示

烧录之后,开发板会启动ubuntu系统。板上的usb口设计非常巧妙,它用一个usb hub同时接了两个usb转串口的芯片,还有S100的usb device接口,因此找根普通的usb线连接pc和开发板,即可看到MCU和CPU端开机时的log。波特率是921600

从启动流程上看,它使用uboot spl作为第一级bootloader,然后带了OPTEE功能,其余的打印信息被隐藏了。

系统起来之后可以用free命令查看内存信息,用cat /proc/cpuinfo查看cpu信息

系统的GPU API为openCL,可以执行如下命令查看GPU信息

apt-get install clinfo

clinfo

 

MCU的打印信息可以在开发板的MCU串口查看

AI功能测试

RDK-S100的AI功能是一大特点,这里测试一下其AI功能。机器人常用的就是视觉识别功能,其系统里面带了摄像头图像识别的demo,如果使用的是USB摄像头,则可以运行位于/app/pydev_demo/09_usb_camera_sample/ 目录下的demo。

找一个支持UVC协议的USB摄像头,这种摄像头出来的是原始格式的数据,非编码后的数据,在将USB摄像头插到开发板的USB接口后,通过执行如下命令,可以查看是否正确识别

ls /dev/video*

然后运行

cd /app/pydev_demo/09_usb_camera_sample/

python3 usb_camera_yolov5x.py

即可看到如下图所示的效果,这里可以对多个目标进行识别,框出其范围,并且有标明其置信度

运行此demo时,通过如下命令,可以看到bpu的占用情况

sudo hrut_somstatus

温度大概在45摄氏度左右,这个温度跟空载时基本一样

说明这个bpu应对这种场景是绰绰有余的,甚至是6路摄像头同时执行这种识别,性能也是够的

下面简要说明下这个demo的执行过程。首先

通过 hbm_runtime 加载指定的 .hbm 模型文件,提取模型名称、输入输出形状、量化信息等

自动扫描 /dev/video* 下的设备,打开第一个可用的 USB 摄像头

将 BGR 图像 resize 至模型输入分辨率(letterbox 模式或普通缩放),并转换为 NV12 格式

通过 run() 方法提交输入张量,在 BPU 上完成模型前向计算

包括量化输出解码、候选框筛选(按 score 阈值过滤)、NMS 去重,以及坐标还原回原始图像大小

最后将结果可视化。这个可视化结果用的是cv2里面的方法

最终就是上面看到的结果了。

因此,在S100上面做推理,其流程跟市面上其他方案类似,就是先做模型转换,从开源的模型或者自行训练的模型转换,得到hbm 模型文件,然后将hbm模型加载到bpu,将图像发到bpu,bpu完成推理后将结果返回cpu。然后根据需要执行绘制等操作。

结语

本文详细介绍了RDK-S100的硬件构成,简要说明了Ubuntu系统在平台上的部署与基本操作,并展示了基于Ubuntu环境的AI功能测试。若希望从软硬件两方面对地瓜机器人S100平台进行初步评估,RDK-S100无疑是一个理想的选择——该开发板已引出大部分常用接口,且凭借其出色的算力表现,定价颇具竞争力。目前,这款开发板可通过地瓜机器人官方代理商深圳风火轮直接购买。

就S100本身而言,其强大的AI性能在当前国产机器人及边缘AI领域同价位产品中几乎难逢对手,所采用的SIP模块也极大简化了硬件设计流程。不过,该平台目前仍存在一定局限:其SDK仅面向企业客户授权,且需签署NDA协议;而作为其主要竞争对手的英伟达,则开放了Jetson系列的全套源码。这一差异可能导致部分个人开发者更倾向于选择英伟达平台

Read more

AIGC时代——语义化AI驱动器:提示词的未来图景与技术深潜

AIGC时代——语义化AI驱动器:提示词的未来图景与技术深潜

文章目录 * 一、技术范式重构:从指令集到语义认知网络 * 1.1 多模态语义解析器的进化路径 * 1.2 提示词工程的认知分层 * 二、交互革命:从提示词到意图理解 * 2.1 自然语言交互的认知进化 * 2.2 专业领域的认知增强 * 三、未来技术图谱:2025-2030演进路线 * 3.1 2025年关键突破 * 3.2 2027年技术里程碑 * 3.3 2030年技术愿景 * 四、伦理与治理:构建可信语义化AI * 4.1 动态伦理约束框架 * 4.2 提示词审计系统 * 五、开发者能力升级路线图 * 5.1 核心技能矩阵 * 5.2 典型学习路径 * 结语 * 《驱动AI:

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

部署Qwen3-VL-32b的踩坑实录:多卡跑大模型为何vLLM卡死而llama.cpp却能“大力出奇迹”?

踩坑实录:多卡跑大模型Qwen-VL,为何vLLM模型加载卡死而llama.cpp奇迹跑通还更快? 前言:部署经历 针对 Qwen2.5-32B-VL-Instruct 满血版模型的部署实战。 手头的环境是一台配备了 4张 NVIDIA A30(24GB显存) 的服务器。按理说,96GB的总显存足以吞下 FP16 精度的 32B 模型(约65GB权重)。然而,在使用业界标杆 vLLM 进行部署时,系统却陷入了诡异的“死锁”——显存占满,但推理毫无反应,最终超时报错。 尝试切换到 Ollama(底层基于 llama.cpp),奇迹发生了:不仅部署成功,而且运行流畅。这引发了我深深的思考:同样的硬件,同样模型,为何两个主流框架的表现天差地别? 本文将围绕PCIe通信瓶颈、Tensor Parallelism(张量并行) 与 Pipeline

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

我用Openclaw + Claude搭了一套自动写作系统,每天省3小时

我用Openclaw + Claude搭了一套自动写作系统,每天省3小时

这是我目前最重要的一套AI工作流。从信息获取到发布,几乎不用手动完成。 一、为什么我要搭建这套系统? 信息过载的困境 如果你也在持续关注AI,应该会有同样的感受: 信息太多了。 每天打开 X、公众号、GitHub、技术社区,都会冒出大量新内容。 AI模型更新、工具更新、Agent框架、自动化方案…… 想跟上这些信息,本身就已经是一项工作。 手动写作的低效循环 更别说: * 整理信息 * 找选题 * 写文章 * 配图 * 发布到各个平台 如果全部手动完成,写作就会变成一件非常消耗精力的事。 我一度也在这种状态里: 想持续输出,但写作本身占用了太多时间。 一个关键问题 后来我开始思考一个问题: 如果写作这件事可以被"系统化",会发生什么? 于是,我不再把AI当成写作工具。 而是开始搭一套完整的 AI写作工作流。 二、思路转变:从优化写作到优化流程 大多数人的AI写作方式 大多数人使用AI写作,是这样: