《机器人实践开发①:Foxglove 开发环境完整搭建指南(含常见坑位) 》

《机器人实践开发①:Foxglove 开发环境完整搭建指南(含常见坑位) 》

导语:

在机器人项目中,调试工具往往比算法本身更耗时间。Foxglove 作为新一代机器人可视化平台,提供了强大的话题订阅、视频显示、3D 展示和日志分析能力。本篇从零开始,手把手带你完成 Foxglove 的环境搭建,包含依赖安装、连接配置以及常见踩坑点。

《机器人实践开发》系列文章索引

《机器人实践开发①:Foxglove 开发环境完整搭建指南(含常见坑位)》

《机器人实践开发②:Foxglove 嵌入式移植 + CMake 集成》

《机器人实践开发③:Foxglove可视化机器人的眼睛-视频》

《机器人实践开发④:Foxglove可视化机器人的耳朵-声音》

《机器人实践开发⑤:Foxglove可视化机器人的3D显示》

《机器人实践开发⑥:Foxglove可视化机器人传感器数据》

《机器人实践开发⑦:Foxglove可视化机器人的日志显示》

《机器人实践开发⑧:Foxglove可视化机器人的地图显示》

《机器人实践开发⑨:Foxglove可视化机器人的MyBag 数据回放》


foxglove 官网

Foxglove 是一个专为机器人团队打造的平台,用于收集、分析和学习构建、训练、部署和操作可靠机器人所需的大量多模态数据。

foxglove_Home_hero_2024_new

foxglove 安装

在这里插入图片描述

ubuntu运行foxglove_bridge完成

echo "start run foxglove ... ... " killall -9 foxglove_bridge ros2 launch foxglove_bridge foxglove_bridge_launch.xml port:=8765

Ros 运行仿真测试程序

在这里插入图片描述

运行 macOS 上面的Foxglove studio,设置远程连接的地址:

在这里插入图片描述


在这里插入图片描述

控制面板设置-主题是否可见

在这里插入图片描述

web网页端也可以使用

注意:webs 没有 ssl 所以chrome 认为不安全,需要网页加载脚本

选择设置面板

在这里插入图片描述

友情提示🔔

🙏 感谢你的阅读!
如果这篇文章对你有所启发,欢迎关注我 ⭐,欢迎点击 “打赏支持作者” 支持一下我,你的支持是我持续创作的最大动力!
我会持续分享更多关于 智能摄像头 📷、机器人实践、 🤖音视频 RTC 🎧、App 开发 📱、嵌入式开发 🔧 等方向的实战经验,让你更快落地、更少踩坑。
欢迎浏览我其他文章 📚,或许能解决你当前的难题。
如果你正好在做相关项目产品,也欢迎随时私信我,一起技术交流、一起搞事情! 🤝💬📞 联系微信/电话:13826173658

Read more

Ollama 结合 Open-WebUI 本地运行大模型

Ollama 结合 Open-WebUI 本地运行大模型

1. 一、Ollama 简介 2. 二、Docker安装 Ollama 3. 三、Open-WebUI 4. 四、文档链接 本文介绍了如何使用 Ollama 在本地运行大型语言模型,以及利用 Open-WebUI 提供的图形化界面与大语言模型进行交互。 一、Ollama 简介 Ollama 是一个开源框架,专门设计用于在本地运行大型语言模型(LLM)。它的主要特点和功能如下: * 简化部署:Ollama 旨在简化在 Docker 容器中部署 LLM 的过程,使得管理和运行这些模型变得更加容易。安装完成后,用户可以通过简单的命令行操作启动和运行大型语言模型。例如,要运行 Gemma 2B 模型,只需执行命令 ollama run gemma:2b。 * 捆绑模型组件:它将模型权重、

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比

彻底弄懂Web Storage与Cookie:从机制到应用的全方位对比 * 引言 * 1. 什么是Cookie? * Cookie 的核心特性: * Cookie 流程图 * 2. 什么是Web Storage? * Web Storage 流程图 * 3. 核心区别深度解析(对标选项逐一解读) * a. 存储容量 * b. 网络流量(带宽浪费) * c. 作用域与跨域 * d. API 易用性 * e. 设计初衷 * f. 历史兼容与封装 * 4. 总结对比表 * 5. 应用场景建议 * 什么时候选 Cookie? * 什么时候选 Web Storage? * 6. 结语 🌺The Begin🌺点点关注,收藏不迷路🌺 引言 在前端开发中,

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程

DeepSeek-R1-Distill-Qwen-1.5B从零部署:vLLM+Open-WebUI环境搭建教程 1. 为什么这款“小钢炮”值得你花30分钟装一遍 你有没有试过在一台只有4GB显存的旧笔记本上,跑一个数学推理能力接近80分(MATH数据集)、还能写Python函数、支持JSON输出、响应速度超过200 tokens/s的模型?不是幻想——DeepSeek-R1-Distill-Qwen-1.5B 就是这么个“反常识”的存在。 它不是参数堆出来的巨无霸,而是用80万条高质量R1推理链,对通义千问Qwen-1.5B做深度蒸馏后的成果。15亿参数,fp16整模仅3.0 GB;量化到GGUF-Q4后压缩至0.8 GB,连树莓派5或RK3588嵌入式板卡都能稳稳扛住。更关键的是:Apache 2.0协议,商用免费,不设门槛。 这不是“能跑就行”的玩具模型。它在MATH上拿80+、HumanEval超50、推理链保留率85%,日常写脚本、解方程、读文档、调API完全够用。

【昇腾】单张96G Atlas 300I Duo推理卡MindIE+WebUI方式跑32B大语言模型_20250818

【昇腾】单张96G Atlas 300I Duo推理卡MindIE+WebUI方式跑32B大语言模型_20250818

一、Atlas 300I Duo推理卡相关安装步骤 由于显存的瓶颈,48G的Atlas 300I Duo推理卡是没办法跑得起来DeepSeek-R1-Distill-Qwen-32B大语言模型的,这里换了一张96G版本的Atlas 300I Duo推理卡来跑,32B大语言模组除了对显存有要求,对服务器本身的内存条也有要求,在加载的过程中需要较大的内存,这里服务器的内存条内存为128GB 1.1 服务器系统与内核说明 服务器系统版本内核版本内存条内存S5000CKylin V104.19.90-89.11.v2401.ky10.aarch64128GB P.S.服务器安装好系统后先不要执行yum update -y更新,否则内核版本会从4.19.90-89.11升级到4.19.90-89.21,Atlas 300I Duo推理卡的driver包会安装失败 1.2 系统环境说明 本服务器IP地址:192.168.2.71 登录用户: