在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能)

在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能),最推荐用 ClawHub CLI 一键安装,再配置百度千帆 API Key 即可使用。

一、前置准备

  1. 安装 Node.js(v20+)与 npm/pnpm

验证安装

clawhub --version

全局安装 ClawHub CLI(OpenClaw 官方技能管理器)

npminstall-g clawhub # 或国内加速pnpmadd-g clawhub 

二、一键安装百度搜索技能

# 安装 baidu-search(百度网页搜索) clawhub install baidu-search --no-input 
  • 安装路径:~/.openclaw/workspace/skills/baidu-search/
  • 目录结构:skill.md(技能说明)、_meta.jsonscripts/search.py

三、配置百度千帆 API Key(必须)

  1. 申请百度千帆 API Key(免费额度)
    • 地址:https://console.bce.baidu.com/qianfan/ais/console/apikey
  2. 配置到 OpenClaw
    • 或在 OpenClaw 界面的技能设置中填入 API Key

编辑 ~/.openclaw/openclaw.json,在 skills 下添加:

"skills":{"entries":{"baidu-search":{"enabled":true,"apiKey":"你的百度千帆 API Key","secretKey":"你的百度千帆 Secret Key"}}}

四、验证安装与使用

    • 或直接在 OpenClaw 对话中发送:搜索 2026年AI发展趋势

测试搜索

# 命令行调用 python3 ~/.openclaw/workspace/skills/baidu-search/scripts/search.py '{"query":"2026年AI发展趋势"}'

重启 OpenClaw

openclaw restart 

五、手动安装(命令行失败时)

  1. 下载技能包
    • 从 ClawHub 下载 baidu-search zip 包:https://clawhub.ai/skills/baidu-search
  2. 配置 API Key 并重启 OpenClaw

安装依赖(如有)

cd ~/.openclaw/skills/baidu-search pip install-r requirements.txt 

解压到技能目录

# macOS/Linuxmkdir-p ~/.openclaw/skills unzip baidu-search.zip -d ~/.openclaw/skills/ # Windows# 解压到 C:\Users\你的用户名\.openclaw\skills\

六、常见问题

  • 技能未加载:检查 skill.md_meta.json 是否完整,重启 OpenClaw
  • 搜索失败:核对 API Key 与 Secret Key,确认百度千帆服务可用
  • 国内网络问题:使用 npx clawhub install baidu-search 或手动下载

Read more

clawdbot (openclaw) + discord 机器人部署指南学习教程

clawdbot (openclaw) + discord 机器人部署指南学习教程

本文介绍了基于 ClawdBot(OpenClaw)框架在 Discord 平台部署 AI 对话机器人的完整流程。内容包括:Discord Application 与 Bot 的创建配置、OAuth2 权限管理、pnpm 全局安装、Daemon 服务配置、多模型 API 接入(支持智谱 GLM 等主流大模型)、Gateway 服务启动与调试等核心环节。 一、网络要求 * 魔法 * 确保网络能够访问Discord服务 * TUN模式(关键哦) 二、Discord平台配置 2.1 访问Discord开发者平台 访问地址:https://discord.com/developers/applications 2.2 创建应用程序 1. 登录Discord开发者平台

AI魔术师:基于视觉的增强现实特效

AI魔术师:基于视觉的增强现实特效

AI魔术师:基于视觉的增强现实特效 * 一、前言 * 二、AR 与视觉 AI 的技术基石 * 2.1 增强现实的核心概念 * 2.2 计算机视觉与 AI 的技术融合 * 2.3 技术栈选型与环境搭建 * 三、视觉 AR 的核心技术解析 * 3.1 相机标定与坐标系统 * 3.1.1 相机标定原理 * 3.1.2 标定代码实现 * 3.2 实时特征跟踪技术 * 3.2.1 ORB 特征跟踪原理 * 3.2.2 单目视觉里程计实现 * 3.3 语义分割与虚实融合

基于FPGA的高速serial通信模块设计与验证

FPGA高速串行通信设计实战:从原理到验证的完整路径 在现代高性能电子系统中,数据洪流正以前所未有的速度涌动。无论是雷达前端每秒采集的TB级回波信号,还是数据中心内部节点间低延迟互联需求,传统并行总线早已力不从心——引脚爆炸、布线复杂、信号完整性恶化……这些问题迫使工程师转向一种更优雅的解决方案: 基于FPGA的高速串行通信(High-Speed Serial Link) 。 今天,我们就来深入拆解这个“吞吐利器”的设计全貌。不讲空话,只聚焦真实工程场景下的关键挑战与应对策略,带你走通从协议理解、模块构建到实测验证的完整闭环。 为什么是FPGA?它凭什么扛起高速通信大旗? 当你的系统需要稳定跑在5 Gbps以上,且对延迟敏感时,MCU或通用处理器往往束手无策。它们受限于软件调度开销、外设带宽瓶颈和中断响应抖动。而FPGA不同——它是硬件逻辑的自由画布。 以Xilinx Kintex Ultrascale+为例,其片上集成了多达96个GTH收发器通道,单通道支持高达13.1 Gbps线速率;Intel Stratix 10 SX系列更是可达28.3 Gbps。这些专用硬核不仅

ROS2:无人机从 “能飞” 到 “会思考” 的全栈技术引擎 —— 深度拆解与落地指南(上)

前言 在无人机技术飞速迭代的今天,“飞得稳” 已不再是终极目标,工业巡检、农业植保、仓储物流、应急搜救等复杂场景,对无人机提出了 “自主定位、智能感知、协同作业” 的高阶要求。而 ROS2(Robot Operating System 2)作为新一代机器人操作系统,正成为无人机突破 “手动控制” 瓶颈、迈向 “自主智能” 的核心引擎。 很多开发者会困惑:飞控系统(如 PX4、ArduPilot)已能实现起飞、悬停、巡航,为何还要集成 ROS2?两者如何分工协作?不同场景下的硬件配置最低要求是什么?本文将从核心定位、飞控配合、协调底座能力、硬件 OS 最小要求、集成实战、典型场景六大维度,用通俗语言 + 海量表格,全方位拆解 ROS2