ROS2+Gazebo+PX4 环境搭建及无人机仿真起飞指南
环境搭建 前置环境 ROS2 humble Gazebo Classic (11) 下载 PX4 源码 在 Home 目录下,使用 Git 克隆 PX4 的代码仓库,并更新所有子模块。 **注意:** 源码包含许多子模块,不建议直接下载 GitHub 主页的 zip 包,否则可能缺失子模块。若网络较慢,建议配置代理以提升下载速度。 运行自动安装脚本 PX4 提供了自动化脚本,可安装编译仿真环境所需…
环境搭建 前置环境 ROS2 humble Gazebo Classic (11) 下载 PX4 源码 在 Home 目录下,使用 Git 克隆 PX4 的代码仓库,并更新所有子模块。 **注意:** 源码包含许多子模块,不建议直接下载 GitHub 主页的 zip 包,否则可能缺失子模块。若网络较慢,建议配置代理以提升下载速度。 运行自动安装脚本 PX4 提供了自动化脚本,可安装编译仿真环境所需…

🎈本地部署模型 🎉安装 Ollama 官网:Ollama 下载并安装完成后无提示,需手动测试。以下以 QWen 为例。 打开终端,输入命令进行测试: 默认模型保存在 C:\Users<username>.ollama\models。如需更改默认路径,可通过设置环境变量 OLLAMA_MODELS 修改,然后重启终端和 Ollama 服务。 下载完成后,可进行测试验证。 查看已安装的模型列表:…
在 Android 设备上利用 Termux 安装 llama.cpp 并启动 WebUI llama.cpp 没有发布官方 aarch64 的二进制,需要自己编译,好在 Termux 已经有编译好的包可用。 安装 llama-cpp 软件 在 Termux 中安装 llama-cpp 包: 如果找不到这个包,请先执行 apt update 更新目录。为简单起见,先不安装 llama-cpp-ba…
问题背景 最近在 Windows 上使用 **Codex** 时遇到了一个很奇怪的问题:输入问题后,界面一直显示'正在思考',但是没有任何回答。 最开始以为是 Codex Bug、API Key 问题或软件配置错误,后来才发现其实是网络问题。 问题原因 Codex 需要访问 OpenAI API(https://api.openai.com),但在国内网络环境下无法直接访问,所以必须通过代理访问。…

本地部署 AI 模型(如 LLaMA、Stable Diffusion)的核心动机之一是对数据隐私的绝对控制。 但当我们需要从外部网络访问这些服务时,就面临两难选择:要么牺牲便利性(只能在内网使用),要么牺牲安全性(将服务暴露至公网)。介绍一种折中的解决方案,实现无需公网 IP、零端口暴露的远程安全访问。 公网暴露的潜在威胁 将本地服务的端口通过路由器映射到公网(Port Forwarding…

介绍如何利用云原生开发平台 CNB 快速部署 ComfyUI 环境。流程包括 Fork 预设仓库、启动容器服务、下载 Stable Diffusion 模型至指定目录以及安装自定义节点。该方案无需本地复杂配置,支持远程协作与 AI 图像生成,并可同步更新至个人仓库。

详细讲解了在 Ubuntu 20.04 环境下安装 Ollama 本地大模型服务,并通过 Docker 部署 Open WebUI 图形界面的步骤。涵盖环境检查、服务安装、模型拉取运行、参数调整及 Web 界面访问配置,帮助用户实现本地化的 AI 对话体验。
对 Ubuntu 22.04 无法通过 apt 直接安装 libwebkit2gtk-4.1-0 的问题进行说明。由于官方仓库限制,需通过源码编译方式构建。文章介绍了失败原因、编译任务清单及构建环境依赖安装步骤,旨在帮助用户获得版本匹配的 Web 渲染引擎运行时。

如何使用 OpenClaw 开源 AI 智能体结合优云智算 Coding Plan 大模型服务,搭建从灵感输入到公众号发布的自动化流水线。内容包括 WSL2 环境部署、OpenClaw 安装与模型配置、微信公众号技能安装及 API 白名单设置,最终实现通过自然语言指令自动完成文案撰写、排版及草稿推送。该方案解决了内容创作碎片化问题,提升了效率,适用于技术分享与自媒体运营场景。
自动化 AI 智能体 OpenClaw(龙虾 AI)在 Windows、macOS 及 Linux 系统的部署流程,涵盖环境准备、命令行安装及模型 API 配置。同时提供文件整理、数据处理、浏览器自动化等常用指令示例及故障排查方法,帮助用户实现电脑自动化办公。
介绍在 Ubuntu 18 + ROS Melodic 环境下配置 XT-Drone 与 Gazebo 无人机仿真平台,并集成 Livox Mid360 激光雷达模型。主要内容包括安装 Mid360 仿真驱动、解决编译时的 protoc 版本冲突及 Anaconda 环境干扰、修改 SDF 文件将雷达模型挂载至无人机、配置 Gazebo 插件路径以及结合 FAST-LIO 进行联合仿真。通过修正环境变量和编译参数,实现了带 Mid360…
介绍如何在无服务器环境下,通过 WebSocket 长连接将飞书 AI 机器人接入 OpenClaw。内容涵盖旧版迁移、新手从零配置、权限设置(批量导入)、事件订阅配置、常见问题排查(如无法发送消息、图片接收失败)以及进阶的群组策略与多 Agent 路由。提供详细的命令行操作指南和配置文件示例,帮助用户快速搭建稳定的飞书 AI 交互环境。

介绍如何在 Linux 系统下部署开源本地 AI 助手 OpenClaw,并完成与飞书机器人的对接。内容涵盖环境准备(Node.js、Git)、依赖安装、服务启动及 Web UI 访问配置。重点讲解了飞书开放平台应用创建、权限设置、回调配置以及 OpenClaw 通道参数填写流程。支持通义千问等模型,实现数据隐私可控的自动化助手功能。

探讨了 Claude Code 在执行 Shell 命令时的权限管理问题。分析了误删文件、权限提升及网络请求等安全风险,以及频繁确认导致的效率低下矛盾。介绍了高危命令分类(如 rm -rf、sudo、curl | bash 等),并强调通过白名单与黑名单机制实现安全与效率的平衡,提供批量授权与配置文件管理方案。
在 Windows、macOS 或 Linux 环境下,通过 Docker 部署小米智能家居 Miloco 后端及视觉大模型的方法。内容包括环境准备、Docker Compose 配置、LM Studio 本地模型部署以及与 Miloco 后端的对接流程。同时提供了规划模型的云端接入方案及模型选择建议,帮助用户实现分离式部署。

宇树 G1 机器人的两种开发连接方式。有线连接通过网线直连,需配置电脑 IP 至同一网段(如 192.168.123.X),适合底层调试。无线连接通过 WiFi 接入局域网,使用 SSH 远程登录(默认账号 unitree,密码 123),适合移动测试。文章提供了详细的网络配置步骤、IP 查看方法及常见问题排查方案,帮助开发者快速建立稳定的开发环境。
介绍 OpenClaw AI Agent 框架的安装与飞书机器人配置流程。涵盖 Node.js 环境准备、OpenClaw 脚本安装、Gateway 配置、飞书应用创建及权限设置、长连接事件订阅、插件安装与渠道配对。同时提供常见问题排查指南,包括事件保存失败、机器人无响应、群聊未@不回复等场景的解决方案。

介绍在 Ubuntu 22.04 系统上安装和配置 Openclaw 智能助手的全过程。内容包括一键安装脚本执行、获取并配置 DeepSeek 及 GLM-4.7-Flash 等免费模型 API Key、设置飞书与钉钉机器人通道。此外还涵盖如何接入 Exa 搜索引擎以增强 AI 的网络搜索能力,以及多模型切换策略。通过上述配置,可实现 AI 辅助编程、任务自动化及实时信息查询功能。

介绍在 Debian 12 Linux 系统上安装 OpenClaw 并接入 QQ 机器人的完整流程。涵盖环境准备(Node.js 24)、OpenClaw 一键部署、华为云 MaaS 模型配置、QQ 机器人插件安装及凭证绑定。通过 systemctl 管理服务状态,实现基于 AI 模型的自动化聊天功能。
介绍如何在腾讯云端使用 Openclaw 结合飞书实现多机器人配置。通过创建多个飞书企业自建应用对应不同 Agent,完成渠道绑定与事件订阅,实现办公、资讯、开发等场景的分工协作。文章涵盖前置准备、分步配置、测试验证及常见问题排查,帮助新手快速上手 AI 自动化工作流。