在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能)

在 OpenClaw 中安装 baidu-web-search skill(百度网页搜索技能),最推荐用 ClawHub CLI 一键安装,再配置百度千帆 API Key 即可使用。

一、前置准备

  1. 安装 Node.js(v20+)与 npm/pnpm

验证安装

clawhub --version

全局安装 ClawHub CLI(OpenClaw 官方技能管理器)

npminstall-g clawhub # 或国内加速pnpmadd-g clawhub 

二、一键安装百度搜索技能

# 安装 baidu-search(百度网页搜索) clawhub install baidu-search --no-input 
  • 安装路径:~/.openclaw/workspace/skills/baidu-search/
  • 目录结构:skill.md(技能说明)、_meta.jsonscripts/search.py

三、配置百度千帆 API Key(必须)

  1. 申请百度千帆 API Key(免费额度)
    • 地址:https://console.bce.baidu.com/qianfan/ais/console/apikey
  2. 配置到 OpenClaw
    • 或在 OpenClaw 界面的技能设置中填入 API Key

编辑 ~/.openclaw/openclaw.json,在 skills 下添加:

"skills":{"entries":{"baidu-search":{"enabled":true,"apiKey":"你的百度千帆 API Key","secretKey":"你的百度千帆 Secret Key"}}}

四、验证安装与使用

    • 或直接在 OpenClaw 对话中发送:搜索 2026年AI发展趋势

测试搜索

# 命令行调用 python3 ~/.openclaw/workspace/skills/baidu-search/scripts/search.py '{"query":"2026年AI发展趋势"}'

重启 OpenClaw

openclaw restart 

五、手动安装(命令行失败时)

  1. 下载技能包
    • 从 ClawHub 下载 baidu-search zip 包:https://clawhub.ai/skills/baidu-search
  2. 配置 API Key 并重启 OpenClaw

安装依赖(如有)

cd ~/.openclaw/skills/baidu-search pip install-r requirements.txt 

解压到技能目录

# macOS/Linuxmkdir-p ~/.openclaw/skills unzip baidu-search.zip -d ~/.openclaw/skills/ # Windows# 解压到 C:\Users\你的用户名\.openclaw\skills\

六、常见问题

  • 技能未加载:检查 skill.md_meta.json 是否完整,重启 OpenClaw
  • 搜索失败:核对 API Key 与 Secret Key,确认百度千帆服务可用
  • 国内网络问题:使用 npx clawhub install baidu-search 或手动下载

Read more

腾讯混元图像模型2.1重磅开源:2K分辨率+双语支持重构AIGC创作体验

9月9日,科技巨头腾讯对外发布重大技术成果——旗下新一代AIGC基础设施混元图像模型2.1正式完成开源部署。此次发布标志着国内图像生成技术在工业化应用领域实现关键突破,该模型不仅原生支持2048×2048超高分辨率输出,更突破性实现中英文双语指令的无缝理解与执行。伴随主模型一同开源的还有腾讯自主研发的PromptEnhancer智能文本优化工具,该工具通过深度学习算法自动提升用户指令的精准度,当输入基础需求"绘制可爱猫咪"时,系统会智能扩展为"橘色短毛猫咪趴卧于格子桌布,爪边散落饼干碎屑,水彩风格渲染"的精细化描述。这种双向语言转换能力支持跨语种创作,例如中文指令"绘制带有'Dream'字样的星空蛋糕",可精准生成符合英文语义的视觉作品,有效解决了AIGC创作中普遍存在的"描述断层"痛点。 作为腾讯混元大模型体系的重要升级,2.1版本在核心能力上实现多维突破。在指令理解维度,该模型率先支持1000tokens超长文本输入,可解析包含多主体、多场景、多动作的复杂叙事结构。典型应用案例显示,当输入"四格漫画形式(2×

3分钟快速上手:llama-cpp-python完整安装与配置指南

3分钟快速上手:llama-cpp-python完整安装与配置指南 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python 想要在本地轻松运行大型语言模型却担心复杂的安装过程?llama-cpp-python作为llama.cpp的Python绑定库,为您提供了简单易用的AI开发体验。本文将带您从零开始,快速掌握这个强大工具的安装配置方法。 基础安装:一键搞定 llama-cpp-python的安装过程极其简单,只需运行以下命令: pip install llama-cpp-python 这个命令会自动从源码构建llama.cpp,并将其与Python包一起安装。如果遇到构建问题,可以添加--verbose参数查看详细构建日志。 硬件加速配置方案 为了获得最佳性能表现,您可以根据自己的硬件配置选择合适的加速后端。 CUDA加速配置(NVIDIA显卡用户) CMAKE_ARGS="-DGGML_CU

GLM-4-9B开源大模型:超越Llama-3-8B的全能AI助手

GLM-4-9B开源大模型:超越Llama-3-8B的全能AI助手 【免费下载链接】glm-4-9b-hf 项目地址: https://ai.gitcode.com/zai-org/glm-4-9b-hf GLM-4-9B作为智谱AI最新一代GLM-4系列的开源版本,凭借在多维度评测中超越Llama-3-8B的卓越表现,为AI开发者和企业用户带来了功能全面且高性能的本地化部署选择。 行业现状:开源大模型进入性能竞赛新阶段 2024年以来,大语言模型领域呈现"开源加速、性能跃升"的显著特征。随着Meta Llama-3系列的发布,开源模型与闭源商业模型的性能差距持续缩小,8B-10B参数区间成为技术突破的焦点战场。这一量级模型兼具性能与部署灵活性,既能满足企业级应用需求,又可在消费级硬件上实现高效运行,成为推动大模型普及化的关键力量。据行业研究显示,2024年第二季度,开源大模型的企业采用率同比提升217%,其中10B以下参数模型占比超过65%。 模型亮点:全方位超越同类竞品的技术突破 GLM-4-9B在核心能力上实现了对Llama-3-8B的全面超越,通过权威评测数据构

【实战干货】消费级显卡的逆袭:Stable Diffusion 3.5 FP8 模型部署与性能优化全指南

【实战干货】消费级显卡的逆袭:Stable Diffusion 3.5 FP8 模型部署与性能优化全指南

🚀 前言:SD3.5 虽好,显存却成了拦路虎? Stability AI 发布的 Stable Diffusion 3.5 (SD3.5) 系列模型,特别是 SD3.5 Large (8B 参数),在图像质量、提示词依从性(Prompt Adherence)和文字生成能力上都达到了开源模型的顶峰。然而,随之而来的是巨大的显存开销。 在传统的 BF16/FP16 精度下,运行 SD3.5 Large 加上庞大的 T5 文本编码器,往往需要 24GB 甚至更高的显存,这让持有 8GB/12GB 显存的广大开发者望洋兴叹。 破局者出现了:FP8(8位浮点)量化。