无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

无人机避障——Mid360+Fast-lio感知建图+Ego-planner运动规划(胎教级教程)

电脑配置:Xavier-nx、ubuntu 18.04、ros melodic

激光雷达:Livox_Mid-360

结果展示:左边Mid360+Fast-lio感知建图,右边Ego-planner运动规划

1、读取雷达数据并显示

无人机避障——感知篇(采用Livox-Mid360激光雷达获取点云数据显示)-ZEEKLOG博客

看看雷达数据话题imu以及lidar两个话题 

2、读取雷达数据并复现fast-lio 

无人机避障——感知篇(采用Mid360复现Fast-lio)-ZEEKLOG博客

启动fast-lio,确保话题有输出 

 由于此处不需要建图,因此不打开rviz,launch文件如下修改:

<launch> <!-- Launch file for Livox MID360 LiDAR --> <arg name="rviz" default="true" /> <rosparam command="load" file="$(find fast_lio)/config/mid360.yaml" /> <param name="feature_extract_enable" type="bool" value="0"/> <!-- 100HZ的bag point_filter_num建议设置为1; 10HZ的bag建议设置为2或3 --> <param name="point_filter_num" type="int" value="3"/> <param name="max_iteration" type="int" value="3" /> <param name="filter_size_surf" type="double" value="0.5" /> <param name="filter_size_map" type="double" value="0.5" /> <param name="cube_side_length" type="double" value="1000" /> <param name="runtime_pos_log_enable" type="bool" value="0" /> <node pkg="fast_lio" type="fastlio_mapping" name="laserMapping" output="screen" /> <!-- <group if="$(arg rviz)"> <node launch-prefix="nice" pkg="rviz" type="rviz" name="rviz" args="-d $(find fast_lio)/rviz_cfg/loam_livox.rviz" /> </group> --> </launch> 

然后运行:

roslaunch fast_lio mapping_mid360.launch

看一下话题:

rostopic list

 看下/Odometry与/cloud_registe

Read more

招聘可以AI面试,那么我制作了一个AI面试教练不过分吧

招聘可以AI面试,那么我制作了一个AI面试教练不过分吧

招聘可以AI面试,那么我制作了一个AI面试教练不过分吧 1.背景 随着AI的发展,面试出现了AI面试,毕设出现了AI查重率,我觉得AI发展的都没那么超级智能化,但是这种东西倒是先出现了,查重率是对比知网得出的结果,我认事实依据,AI查重率都不知道是依据什么,总之降AI率就是就写毕设时的问题,很难受,既然面试招聘可以AI面试,那么我制作了一个AI面试教练,提取预判AI的问题训练自己,不过分吧。 既然企业能用 AI 来筛人,那我为什么不能用 AI 来武装自己? 于是,我开发了一款 AI 面试教练系统: 通过分析目标公司与岗位的历史面经,结合我的简历,智能生成个性化面试准备报告,精准预判问题、优化表达、提升竞争力。 这个想法朴素,但务实——用 AI 对抗 AI,用技术反哺成长。 2.效果展示 功能流程图 核心功能详解 1. 智能面经抓取与分析 用户只需输入“联想 材料工程师”

By Ne0inhk
OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

还在为AI联网搜索头疼费?这篇文章教你实现AI联网搜索 背景 现在AI助手大火,但是大部分都不支持联网搜索。能够联网的Perplexity一个月要20美元,对个人开发者来说确实有点肉疼。 作为一个程序员,我一直在找免费或者低成本的解决方案。直到我发现OpenClaw这个开源平台,可以很方便地自定义Skill,配合智谱AI的GLM模型,实现了免费联网搜索功能。 什么是OpenClaw OpenClaw是一个开源的AI助手平台,支持: * 多个AI模型(GPT、Claude、GLM等) * 自定义Skill(技能) * 多种部署方式 * 飞书、Telegram等多平台接入 官方文档:https://github.com/openclaw/openclaw 核心思路 利用OpenClaw的自定义Skill功能,调用智谱AI的GLM模型。GLM模型支持联网搜索工具(web_search),我们只需要: 1. 申请智谱AI的API Key 2. 编写调用脚本 3. 配置到OpenClaw 详细配置步骤 第一步:申请智谱AI API Key

By Ne0inhk
从MVP到千万级并发 AI在前后端开发中的差异化落地指南

从MVP到千万级并发 AI在前后端开发中的差异化落地指南

文章目录 * 前言 * 一、技术原理解析 * 1. 核心差异维度对比 * 2. AI 辅助开发的技术架构模型 * 二、按 DAU 规模分层的实战策略与代码实证 * 1. 低 DAU 项目(<1万):MVP 验证期 * 后端实战:从需求到接口的秒级响应 * 前端实战:快速但粗糙的 UI * 2. 中 DAU 项目(1万–100万):业务增长期 * 后端:复杂业务逻辑的精准生成 * 前端:C端体验的“陷阱” * 3. 高 DAU 项目(>100万):高并发架构期 * 后端进阶:AI 驱动的性能优化 * 高并发流程架构图 * 三、

By Ne0inhk
人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用

人工智能:预训练语言模型与BERT实战应用 1.1 本章学习目标与重点 💡 学习目标:掌握预训练语言模型的核心思想、BERT模型的架构原理,以及基于BERT的文本分类任务实战流程。 💡 学习重点:理解BERT的双向注意力机制与掩码语言模型预训练任务,学会使用Hugging Face Transformers库调用BERT模型并完成微调。 1.2 预训练语言模型的发展历程与核心思想 1.2.1 为什么需要预训练语言模型 💡 传统的自然语言处理模型(如LSTM+词嵌入)存在两个核心痛点:一是需要大量标注数据才能训练出高性能模型,二是模型对语言上下文的理解能力有限。 预训练语言模型的出现解决了这些问题。它的核心思路是先在大规模无标注文本语料上进行预训练,学习通用的语言知识和语义表示,再针对特定任务进行微调。这种“预训练+微调”的范式,极大降低了对标注数据的依赖,同时显著提升了模型在各类NLP任务上的性能。 预训练语言模型的发展可以分为三个阶段: 1. 单向语言模型阶段:以ELMo为代表,通过双向LSTM分别学习正向和反向的语言表示,再拼接得到词向量。但ELMo本质还

By Ne0inhk