无人机地面站 QGroundControl 在 Ubuntu 20.04 下的安装指南
介绍在 Ubuntu 20.04 系统下安装 QGroundControl 地面站的步骤,包括依赖环境配置、AppImage 文件权限设置及运行方法,并提供了地图数据加载失败时的缓存清理解决方案。
介绍在 Ubuntu 20.04 系统下安装 QGroundControl 地面站的步骤,包括依赖环境配置、AppImage 文件权限设置及运行方法,并提供了地图数据加载失败时的缓存清理解决方案。
介绍在禁止 OpenSSH 传输文件的场景下,使用 WebDAV 配合 rclone 实现跨平台文件传输的方案。通过配置 Apache 开启 WebDAV 服务并设置权限,利用 rclone 客户端进行稳定读写。涵盖 Windows 下 Apache 安装、模块启用、目录共享及防火墙配置步骤,以及 rclone 的安装与连接配置。适用于内部工具场景,支持大文件传输。
介绍 llamafile 工具的本地部署方法。通过下载预打包模型、配置系统权限、启动服务三个步骤,实现大语言模型的离线运行。支持跨平台,无需安装依赖,内置 OpenAI 兼容 API,适合隐私敏感场景。
介绍如何在安卓手机通过 Termux 运行 Ubuntu 容器,无需 Root 即可部署本地 Llama 大模型并集成 OpenClaw 进行 AI 交互。教程涵盖 Termux 配置、Ubuntu 环境搭建、Node.js 安装、Ollama 或 llama.cpp 模型部署、OpenClaw 配置及访问方式,适合具备基础命令行操作能力的用户。

红日靶场 7 的内网渗透流程。通过 Redis 未授权访问获取 Web1 权限,利用 Laravel 漏洞及 Docker 逃逸控制 Web2。配置 FRP 代理打通内网,通过通达 OA 漏洞获取 PC1 权限。最终使用 Cobalt Strike Beacon 上线各节点,结合 SMB 及永恒之蓝攻陷域控 DC 及目标主机 PC2。涉及信息收集、漏洞利用、提权、横向移动及持久化控制。
Gerrit 与 Gitweb 的集成配置方法。支持内部托管模式,Gerrit 可强制项目级访问控制并直接调用 gitweb.cgi。配置需修改 gerrit.config 文件,设置 gitweb.type、gitweb.cgi 路径及可选的 gitweb.url。若使用反向代理,可指定不同的 URL 路径。配置完成后需重启 Gerrit 服务并刷新客户端页面。此外还涉及配置文件覆盖位置、CSS 及标志文件的存放路径说明。

在 Windows 环境下利用 Docker 部署闲鱼 AI 自动回复系统的完整流程。内容包括环境准备、容器启动、账号 Cookie 配置、通义千问 API 集成以及钉钉消息通知设置。通过自动化回复功能提升闲鱼店铺管理效率,实现零成本运营。同时讲解了如何通过内网穿透工具将本地服务暴露到公网,便于远程管理。

在腾讯云轻量应用服务器上部署 OpenClaw AI Agent 的完整流程。包括购买服务器、安装 Node.js 环境、使用脚本一键安装 OpenClaw、配置网关与模型、通过 SSH 隧道访问控制台,以及接入 QQ 渠道和安装技能。最后提供了常用运维命令,帮助用户实现 7×24 小时在线的自动化智能助手。

对操作系统智能助手 OS Copilot 进行了新功能测评。该工具结合语言模型与人工智能技术,优化用户与操作系统的交互模式。通过自然语言处理,支持文件管理、应用启动及系统设置调整,降低操作门槛。测评基于阿里云 ECS 环境,验证了其在运维与系统操作场景的适用性。

介绍如何将 OpenClaw 接入 QQ 机器人以实现家庭 AI 助手功能。主要步骤包括在 QQ 开放平台创建应用获取凭证、安装 OpenClaw 插件、配置 Token 及重启网关。特别提示家用宽带因 IP 变动频繁导致连接不稳定,建议使用云服务器部署以确保白名单有效性。支持私聊、群聊@、图片文件收发等功能。
对 Windows 10/11 系统下 USB-Blaster 驱动无法识别的问题,分析了驱动程序签名强制(DSE)机制的影响。提供了三种解决方案:标准安装、手动指定 INF 文件安装以及临时禁用驱动签名强制。此外,还包含清理旧驱动残留、命令行批量部署及验证驱动是否生效的实操步骤,旨在帮助开发者解决 FPGA 开发工具链中的硬件连接问题。

介绍如何在腾讯 QQ 开放平台上使用 OpenClaw 项目创建并部署最多 5 个机器人助手。内容包括 OpenClaw 简介、QQ 机器人账号创建流程、服务器环境部署方案(云服务器、宝塔面板、本地 Docker)、插件安装与绑定步骤、以及常见应用场景如代码辅助、数据抓取等。同时提供了 IP 白名单配置、密钥管理等避坑指南。
在 Ubuntu 系统上通过 Ollama 和 Docker 本地化部署 DeepSeek R1 模型的完整流程。主要步骤包括安装 NVIDIA 显卡驱动、配置 Docker 环境、安装 Ollama 服务、设置网络访问权限、下载指定模型以及启动模型进行交互。该方案适用于需要在本地运行大语言模型的场景。

在 Linux Ubuntu 环境下通过 Docker 部署 Web-Check 网站诊断工具,并结合 cpolar 内网穿透实现公网远程访问的方法。内容包括 Docker 安装、容器配置、本地测试验证,以及通过 cpolar 创建隧道获取随机或固定公网地址的步骤。该方案解决了本地工具异地协作困难的问题,支持运维人员随时随地进行安全巡检和漏洞检测。

介绍如何在 OpenCode 中通过 AI 提示词自动安装 oh-my-opencode 插件。需提前安装 OpenCode 并配置 Git 环境。操作步骤包括切换至 build 模式,将官方安装文档链接发送给 AI,由 AI 自动克隆仓库并配置插件目录。安装后重启终端验证 Sisyphus 界面是否出现,并通过测试功能确认插件生效。常见问题包括插件目录查找、GitHub 网络访问及权限不足,可通过搜索路径、配置代理或管理员权限解决。
对 llama.cpp Docker 镜像在国内网络环境下载缓慢的问题,提出解决方案:将默认的 ghcr.io 镜像源替换为国内镜像源 ghcr.nju.edu.cn,通过修改 docker pull 命令实现加速下载。

介绍如何使用 OpenClaw 结合飞书搭建专属 AI 机器人。主要步骤包括安装 Node.js 环境、全局安装 OpenClaw 并配置守护进程、设置 AI 模型 API 凭证、在飞书开放平台创建企业自建应用并获取凭证、将飞书凭证写入 OpenClaw 配置、开启必要权限并发布应用、最后在飞书内完成用户授权配对即可使用。

如何配置钉钉 OpenClaw 机器人以集成 OpenMetadata 元数据管理平台。内容包括 OpenClaw 的安装方法(支持 macOS/Linux/Windows)、钉钉机器人的插件安装与配置(Client ID/Secret/Gateway Token),以及通过 MCP 协议调用 OpenMetadata 的 API 进行元数据搜索、血缘分析和术语管理。最终实现利用 AI 助手自动化处理数据治理任务。

介绍开源 AI 智能体 OpenClaw 的完整部署流程。涵盖系统环境准备(Node.js、Git)、一键脚本或手动安装方法、初始化配置及网页控制台启动。详细说明了如何接入 QQ 机器人实现远程调用,包括服务开机自启、状态查看与停止操作。此外提供常用技能包推荐列表,以及彻底卸载步骤。最后汇总了脚本执行策略、命令未找到、端口占用等常见报错的解决方案,帮助用户快速上手并稳定运行本地 AI 服务。
档介绍在 Linux 系统下部署 OpenClaw 的完整流程,涵盖 Node.js 环境搭建、核心程序安装、Minimax 和 DeepSeek 模型配置以及飞书渠道对接。步骤包含交互式配置选项详解、端口映射访问 Web 界面及常见问题排查,适用于新手部署及企业内部集成。