人形机器人放无人机,还能上天入海!有点过于赛博了吧

金磊 发自 凹非寺
量子位 | 公众号 QbitAI

现在的人形机器人啊,真的城会玩儿了。

这不,他们已经开始放!无!人!机!了!

你没听错,画面是酱紫的:

这还不算完。

这个被机器人放飞的无人机,飞着飞着,竟然开始潜水了!

以为是哪家机器人独角兽搞的花活儿?

No,No,No。

这场机器人和无人机联动的背后,正是中国电信 TeleAI

这一次,由中国电信集团CTO、首席科学家、中国电信人工智能研究院(TeleAI)院长李学龙教授团队领衔,直接甩出了一套具身智能组合:

  • 首款自研人形机器人:TeleBot-M
  • 全自研空海跨域具身智能体:TeleAqua-Bee

或许在大众的印象里,中国电信的形象还停留在拉网线、办宽带、通信号;但恰恰就是这家最懂通信的运营商,正在试图解决具身智能领域目前最大的隐形成本——协同与传输。

毫不夸张地说,机器人放无人机,实则是中国电信一次 “端-边-云”全栈自研体系的总验收。

机器人怎么放好无人机?

在“机器人放无人机”这个场景中,“机器人”和“无人机”,这两个本体自然是技术中的关键。

中国电信首款自研人形机器人
TeleBot-M

从外观上来看,它和那些全尺寸金属外壳的人形机器人不同,为了把TeleBot-M亲和力拉满、机身做小,同时在与无人机协同时,实现操作性和轻量化的完美平衡,团队将TeleBot-M的上肢简化到单臂4自由度,而下肢则保留单腿6自由度的设计,使其跑跳稳如老狗。

为了支撑这副躯体,TeleAI给它装上了一套自研的高性能神经系统TeleBotOS。这套系统对底层电气拓扑进行了重构,采用了自研创新的机器人嵌入式控制框架,为同时实现身体平衡控制和放飞指令发出提供了可靠的系统基石,实现不抢算力、不卡顿,无论后台任务多重,机器人的运动控制始终连贯精准。

TeleBot-M之所以能如此听话,离不开一颗由5000万条仿真数据喂出来的自主大脑

它依托业界首创的纯仿真评测平台NavGBench,在由世界模型TeleWorld生成的超5000个高保真3DGS虚拟场景中持续强化学习,打破了固定规则束缚,获得了在复杂动态环境中自主决策、路径规划与任务拆解的能力。

此外,TeleBot-M的小脑也值得好好说道说道。它引入了上下肢课程式对抗强化学习,研发团队在训练中故意给它的上肢施加随机干扰,就像有人在推搡它一样。

即便TeleBot-M机器人的上肢受到剧烈扰动,它就像练了太极似的,下肢依然能保持高鲁棒性,甚至还能同时完成毫米级的轨迹规划。

这套大小脑协同的认知体系,让机器人不仅能看懂世界,更能想明白该做什么。如果说小脑负责运动协调与抗扰平衡,大脑则掌舵全局思考,让TeleBot-M真正成为“有脑子、能进化”的具身智能体。

上天入海的TeleAqua-Bee

从外观上来看,它只有巴掌大,不足1kg,是可以直接塞进背包的那种。

它的桨叶还自带保护罩,不仅为了安全,更是为了适应复杂的流体环境。

TeleAqua-Bee最大的亮点是涵道推进器水空两用

在天上,它是无人机,续航10分钟;一头扎进水里,它就是潜航器,能潜航30分钟,最大潜深10米。

并且不只是防水那么简单,TeleAqua-Bee具备水面自回正功能,甚至能在水下稳定悬停。

除了Bee(掌上交互版),TeleAqua其实是一个家族:

例如TeleAqua-H8,主打一个“快速响应+高负载”,能扛5kg负载,空中续航15分钟,水下续航长达1小时,10米最大潜深应对长时间原位观测完全没压力。

TeleAqua-H4Z可以折叠机臂,水下航速超2m/s,专钻狭窄空间。

最后的TeleAqua-Edu,专为二次开发打造,是首款可分舱拼接的四轴飞潜航行器。

如此一来,TeleAqua家族系列的空海跨域具身智能体便全方位地覆盖了低空、水面和水下。

机器人和无人机介绍完了,接下来的问题就是,怎么连接

智传网(AI Flow),了解一下

在实验室里连根线当然容易,但如果是在远洋货轮、深山老林,或者信号只有一格的救灾现场呢?

这就触及到了中国电信的核心护力。

机器人和无人机算力是分开的,但数据流绝不能断。为此,TeleAI从理论到工程系统化布局了智传网(AI Flow)架构,而生成式视频压缩技术(GVC)正是智传网(AI Flow)信容律理论落地最硬核的一把尖刀。

智传网(AI Flow)不是简单的物联网,它是基于“信容律、同源律、集成律”三大定律构建的智能分发网络。

GVC则把信容律“用计算换带宽”的理念推向极致——传输语义与运动Token,而非像素本身。传统视频编码搬的是画面,GVC传的是经过高度抽象的语义特征。

原生1GB视频压缩至200KB,压缩率干到惊人的0.02%,靠的正是这种“像素不进网,画面靠生成”的代际革命。

这是TeleAI从2024年就开始布局的理论地基。

在这个架构下,端-边-云不再是割裂的:

  • 端侧(机器人/无人机): 小模型负责即时反应,比如避障、保持平衡。
  • 边侧:边缘节点负责实时决策与任务调度,在靠近现场的位置完成异构指令融合、多智能体协同,既减轻云端压力,也守住毫秒级响应底线。
  • 云侧: 大模型负责全局规划,比如“去哪里搜救”、“路线怎么走”。

TeleAI下的一盘大棋

看到这里,你可能明白了。

TeleAI花了两年时间,织出了一条清晰的技术路线:智传网(AI Flow)、人形机器人、跨域潜航器。

今天展示的“机器人放无人机”,就是这两年织网收上来的第一网鱼。

这不仅仅是具身智能和水下具身智能设备之间的连接与交互,而是为异构具身智能本体之间构建了一个紧密协同的社群。未来,空中无人机、地面机器人、水下潜航器与云端大脑将通过智传网(AI Flow)实现无障碍沟通与协作,每一个智能体既是独立的个体,又是群体智慧的无限延伸。

民企做机器人,卷的是运动性能、卷的是BOM成本。而中国电信TeleAI 做机器人,卷的是“云网融合+AI原生”

TeleAI的选择也非常清醒:

首先就是最苦、最险、人最不想去的地方。

想象一下这样的场景:洪水冲断了道路,地震堵死了大门,或者深海光缆需要检修。

以前,是救援人员冒着生命危险,赌运气往里冲。

现在,TeleBot-M作为先遣队员,背着TeleAqua进入毒气弥漫或极度缺氧的区域。遇到水域阻隔,TeleAqua起飞、入水,钻入狭窄的水下空间。

借助智传网(AI Flow),哪怕基站全损,只剩微弱的卫星信号,指挥中心依然能通过指令重绘,看清现场的每一个细节。

而且不仅是抢险救援,比如临地安防、城市管理、工业巡检、海洋勘探相关等等,反正这种人干有危险或者不好实现的场景,就可以派它们去。

传像素是19世纪的思维,传指令才是未来的逻辑。

这不仅是两个设备的物理连接,更是有温度的科技。

正如TeleAI所期望的那样:

替人赴险的勇气,守护生命的底气。

有了这对具身智能搭子:险地可闯,困境可破;生命有托,希望不落。

还有,从一个机器人+无人机,其实这是一个起点,我们所看到的是群体智能的未来。

这,或许才是硬核科技最大的浪漫。

Read more

前端状态管理比较:选择适合你的状态管理方案

前端状态管理比较:选择适合你的状态管理方案 毒舌时刻 状态管理?听起来就像是前端工程师为了显得自己很高级而特意发明的复杂概念。你以为随便找个状态管理库就能解决所有问题?别做梦了!到时候你会发现,状态管理库本身就是个问题。 你以为Redux是万能的?别天真了!Redux的样板代码多到让你崩溃,调试起来也非常麻烦。还有那些所谓的轻量级状态管理库,看起来简单,用起来却各种问题。 为什么你需要这个 1. 复杂状态管理:当应用变得复杂时,组件间的状态共享和管理会变得非常困难,需要一个专门的状态管理方案。 2. 可预测性:良好的状态管理方案可以让状态变化变得可预测,便于调试和测试。 3. 性能优化:状态管理方案可以帮助你优化组件渲染,提高应用性能。 4. 代码组织:状态管理方案可以帮助你更好地组织代码,提高代码的可维护性。 5. 团队协作:统一的状态管理方案可以便于团队成员之间的协作,减少沟通成本。 反面教材 // 这是一个典型的状态管理混乱的例子 import React, { useState, useEffect } from 'react'; function

当 AI 学会“造沙箱“:OpenSandbox 如何让大模型安全地执行代码

当 AI 学会“造沙箱“:OpenSandbox 如何让大模型安全地执行代码

让 AI 写代码容易,让 AI 安全地运行代码?这才是真正的技术硬菜。 你有没有想过这样一个场景:你让 ChatGPT 或 Claude 帮你写了一段 Python 爬虫脚本,它写得漂漂亮亮,但你复制到本地一运行——"rm -rf /"——好家伙,人没了,数据没了,只剩下你和一台空空如也的电脑面面相觑。 当然,这只是一个极端的玩笑。但说真的,AI 生成的代码到底能不能直接运行?运行在哪里?出了问题谁来兜底?这些问题,在 AI 编程助手遍地开花的今天,已经从"理论问题"变成了"每天都要面对的问题"。 今天要介绍的 OpenSandbox,就是阿里巴巴开源的一套专门解决这个问题的"沙箱平台"

TinyML:边缘设备上的轻量化 AI 模型开发与部署

TinyML:边缘设备上的轻量化 AI 模型开发与部署

摘要 TinyML作为边缘计算与人工智能融合的新兴技术,旨在将机器学习模型部署到资源极度受限的微控制器上。本文系统阐述了TinyML的技术体系、核心挑战、关键框架及应用案例。研究表明,通过模型量化、剪枝、知识蒸馏等压缩技术,结合专用推理框架(如TensorFlow Lite Micro),能够在保持模型精度的同时,将内存占用降低至KB级别,功耗控制在毫瓦级别。TinyML技术为物联网设备上的实时智能推理提供了可行方案,在语音唤醒、视觉检测、工业预测性维护等领域展现出广阔应用前景。未来,随着算法优化与硬件协同设计的深入,TinyML将在超低功耗AI领域发挥更为关键的作用。 1 引言 随着物联网技术的迅猛发展,全球已部署的微控制器数量超过2500亿个,并且每年新增约400-500亿个。这些设备遍布从智能家居到工业监控的各个领域,产生了海量的实时数据。传统的云计算处理模式需要将数据传输至云端处理,面临延迟高、隐私泄露风险、网络依赖性强等问题。在此背景下,TinyML(Tiny Machine Learning)应运而生,它代表了机器学习模型在资源极度受限的边缘设备上运行的新范式。

AI大模型ms-swift框架实战指南(八):Qwen2.5-7B高效微调实践指南

AI大模型ms-swift框架实战指南(八):Qwen2.5-7B高效微调实践指南

系列篇章💥 No.文章1AI大模型ms-swift框架实战指南(一):框架基础篇之全景概览2AI大模型ms-swift框架实战指南(二):开发入门之环境准备3AI大模型ms-swift框架实战指南(三):模型部署初体验4AI大模型ms-swift框架实战指南(四):大模型推理实践完全指南5AI大模型ms-swift框架实战指南(五):大模型推理加速技术揭秘6AI大模型ms-swift框架实战指南(六):本地部署Chat对话全流程7AI大模型ms-swift框架实战指南(七):InternVL 2.5部署推理实战8AI大模型ms-swift框架实战指南(八):Qwen2.5-7B高效微调实践指南 目录 * 系列篇章💥 * 前言 * 一、环境准备 * 二、依赖安装 * (一)安装ms-swift * (二)安装vllm * 三、模型下载 * (一)安装lfs * (二)下载模型 * 三、模型推理 * 四、模型微调 * (一)数据集准备 * (二)模型微调 * (三)推理微调后权重文件 * (四)