在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能)

在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能),最推荐用 ClawHub CLI 一键安装,再配置百度千帆 API Key 即可使用。

一、前置准备

  1. 安装 Node.js(v20+)与 npm/pnpm

验证安装

clawhub --version

全局安装 ClawHub CLI(OpenClaw 官方技能管理器)

npminstall-g clawhub # 或国内加速pnpmadd-g clawhub 

二、一键安装百度搜索技能

# 安装 baidu-search(百度网页搜索) clawhub install baidu-search --no-input 
  • 安装路径:~/.openclaw/workspace/skills/baidu-search/
  • 目录结构:skill.md(技能说明)、_meta.jsonscripts/search.py

三、配置百度千帆 API Key(必须)

  1. 申请百度千帆 API Key(免费额度)
    • 地址:https://console.bce.baidu.com/qianfan/ais/console/apikey
  2. 配置到 OpenClaw
    • 或在 OpenClaw 界面的技能设置中填入 API Key

编辑 ~/.openclaw/openclaw.json,在 skills 下添加:

"skills":{"entries":{"baidu-search":{"enabled":true,"apiKey":"你的百度千帆 API Key","secretKey":"你的百度千帆 Secret Key"}}}

四、验证安装与使用

    • 或直接在 OpenClaw 对话中发送:搜索 2026年AI发展趋势

测试搜索

# 命令行调用 python3 ~/.openclaw/workspace/skills/baidu-search/scripts/search.py '{"query":"2026年AI发展趋势"}'

重启 OpenClaw

openclaw restart 

五、手动安装(命令行失败时)

  1. 下载技能包
    • 从 ClawHub 下载 baidu-search zip 包:https://clawhub.ai/skills/baidu-search
  2. 配置 API Key 并重启 OpenClaw

安装依赖(如有)

cd ~/.openclaw/skills/baidu-search pip install-r requirements.txt 

解压到技能目录

# macOS/Linuxmkdir-p ~/.openclaw/skills unzip baidu-search.zip -d ~/.openclaw/skills/ # Windows# 解压到 C:\Users\你的用户名\.openclaw\skills\

六、常见问题

  • 技能未加载:检查 skill.md_meta.json 是否完整,重启 OpenClaw
  • 搜索失败:核对 API Key 与 Secret Key,确认百度千帆服务可用
  • 国内网络问题:使用 npx clawhub install baidu-search 或手动下载

Read more

Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示

Cursor实战:Web版背单词应用开发演示 * 需求分析 * 自行编写需求文档 * 借助Cursor生成需求文档 * 前端UI设计 * 后端开发 * 项目结构 * 环境参数 * 数据库设计 * 安装Python依赖 * 运行应用 * 前端代码修改 * 测试前端界面 * 测试数据生成 * 功能测试 * Bug修复 * 总结 在上一篇《Cursor AI编程助手不完全指南》中,我们详细介绍了Cursor这款强大的AI编程工具。为了让大家能更直观地了解 Cursor 的实战应用价值,本文将通过一个实际项目来展示其开发流程。我们将使用 Cursor 开发一个 Web 版单词学习程序,通过这个案例,您将看到 AI 辅助开发的完整过程,体验从需求分析到代码实现的全过程。让我们开始这次实战之旅。 需求分析 在开始开发之前,明确的需求文档是项目成功的关键。一个好的需求文档不仅能指导开发方向,还能作为与 Cursor 进行高效对话的重要基础。我们有两种方式来准备需求文档:自行编写需求文档和借助 Cursor 生成需求文档

Live Avatar部署教程:Gradio Web UI与CLI模式快速上手指南

Live Avatar部署教程:Gradio Web UI与CLI模式快速上手指南 1. 认识Live Avatar:开源数字人模型的来龙去脉 Live Avatar是由阿里联合高校团队开源的端到端数字人生成模型,它能将一张静态人像、一段音频和一段文本提示词,实时合成出自然生动的说话视频。不同于传统数字人依赖复杂动作捕捉或预设动画库,Live Avatar基于14B参数规模的多模态扩散架构,实现了语音驱动口型、表情、微动作与语义内容的高度协同。 这个模型最特别的地方在于“实时性”——它不是先生成图像再合成视频,而是直接在潜空间中建模动态视频帧序列。这意味着你输入一句话和一段语音,它就能边推理边输出连续帧,而不是等全部计算完才给你一个视频文件。这种设计让交互更自然,也更适合做直播、虚拟助手、AI讲师等需要低延迟响应的场景。 不过,技术越先进,对硬件的要求也越实在。目前这个镜像需要单张80GB显存的GPU才能流畅运行。我们实测过5张RTX 4090(每张24GB显存),依然无法启动——不是因为总显存不够(5×24=120GB > 80GB),而是因为模型在推理时需要“unshar

AI实体识别WebUI开发指南:自定义界面与功能扩展

AI实体识别WebUI开发指南:自定义界面与功能扩展 1. 背景与技术选型 在信息爆炸的时代,非结构化文本数据(如新闻、社交媒体内容、文档)占据了数据总量的80%以上。如何从中高效提取关键信息,成为自然语言处理(NLP)领域的核心挑战之一。命名实体识别(Named Entity Recognition, NER)作为信息抽取的基础任务,能够自动识别文本中的人名(PER)、地名(LOC)、机构名(ORG)等关键实体,广泛应用于知识图谱构建、智能客服、舆情分析等场景。 然而,传统NER系统多以命令行或API形式提供,对非技术用户不够友好。为此,构建一个可视化、可交互、易扩展的WebUI界面,成为提升用户体验和落地效率的关键。本文将围绕基于ModelScope RaNER模型的中文实体识别WebUI项目,深入讲解其架构设计、界面实现机制及功能扩展路径,帮助开发者快速搭建属于自己的AI语义分析工具。 本项目选择 RaNER(Robust Named Entity Recognition)