OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

还在为AI联网搜索头疼费?这篇文章教你实现AI联网搜索

背景

现在AI助手大火,但是大部分都不支持联网搜索。能够联网的Perplexity一个月要20美元,对个人开发者来说确实有点肉疼。

作为一个程序员,我一直在找免费或者低成本的解决方案。直到我发现OpenClaw这个开源平台,可以很方便地自定义Skill,配合智谱AI的GLM模型,实现了免费联网搜索功能。

什么是OpenClaw

OpenClaw是一个开源的AI助手平台,支持:

  • 多个AI模型(GPT、Claude、GLM等)
  • 自定义Skill(技能)
  • 多种部署方式
  • 飞书、Telegram等多平台接入

官方文档:https://github.com/openclaw/openclaw

核心思路

利用OpenClaw的自定义Skill功能,调用智谱AI的GLM模型。GLM模型支持联网搜索工具(web_search),我们只需要:

  1. 申请智谱AI的API Key
  2. 编写调用脚本
  3. 配置到OpenClaw

详细配置步骤

第一步:申请智谱AI API Key

  1. 打开 https://open.bigmodel.cn/
  2. 注册账号(新用户有免费额度)
  3. 登录后进入控制台
  4. 点击左侧「API Keys」
  5. 点击「创建API Keys」
  6. 复制保存好Key

第二步:创建Skill目录结构

在OpenClaw的skills目录下创建:

glm-web-search/ ├── _meta.json ├── SKILL.md └── scripts/ └── search.mjs 

第三步:配置文件

_meta.json:

{"ownerId":"local","slug":"glm-web-search","version":"1.0.0"}

SKILL.md:

--- name: glm-web-search description: 使用智谱AI GLM模型进行联网搜索 metadata: {"openclaw":{"emoji":"🔍","requires":{"env":["ZHIPU_API_KEY"]}}} --- # GLM Web Search 使用智谱AI的GLM模型进行联网搜索。 ## 环境变量 需要配置 ZHIPU_API_KEY 环境变量。 

第四步:编写搜索脚本

创建 scripts/search.mjs,核心代码:

const apiKey = process.env.ZHIPU_API_KEY;const endpoint ="https://open.bigmodel.cn/api/paas/v4/chat/completions";const body ={model:"glm-4-flash",messages:[{role:"user",content:`请搜索:${query}`}],tools:[{type:"web_search",web_search:{search_query: query }}],tool_choice:"auto"};const resp =awaitfetch(endpoint,{method:"POST",headers:{"Content-Type":"application/json","Authorization":`Bearer ${apiKey}`},body:JSON.stringify(body)});const data =await resp.json(); console.log(data.choices[0].message.content);

第五步:配置环境变量

exportZHIPU_API_KEY="你的API密钥"

第六步:重启服务

openclaw restart 

使用效果

配置完成后,直接对话:

用户:帮我查一下最新的AI新闻 AI:以下是最新AI相关新闻: 1. OpenAI发布新模型GPT-5... 2. Anthropic发布Claude 4... 3. 智谱AI更新GLM-5... (自动联网搜索并返回结果) 

效果对比

方案月费用稳定性搜索效果
Perplexity Pro$20稳定
ChatGPT Plus$20一般一般
第三方搜索API¥50+一般一般
本文方案免费稳定够用

注意事项

  1. 智谱AI免费额度有限,建议合理使用
  2. 目前仅支持中文搜索效果最佳
  3. 如需大规模使用,建议升级付费套餐

总结

通过OpenClaw + 智谱AI的组合,我们实现了:

  • ✅ 免费联网搜索
  • ✅ 中文搜索效果好
  • ✅ 部署简单

对于个人开发者或者小团队来说,这个方案完全可以满足日常需求。如果你有更好的方案,欢迎评论区交流!


参考:

  • OpenClaw GitHub: https://github.com/openclaw/openclaw
  • 智谱AI官网: https://open.bigmodel.cn/

标签: OpenClaw 智谱AI GLM 联网搜索 AI工具 免费


本文原创,转载注明出处

Read more

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案 前言 在前文我们初步探讨了 sse_stream 在鸿蒙(OpenHarmony)端的连接实战。但在面临真正的工业级挑战——例如在大模型 AI(如 DeepSeek)生成每秒数百字的超高频反馈,或者是在证券系统中上千个标的实时价格跳动时,简单的“连接并监听”会导致鸿蒙 UI 线程由于疯狂的事件回调而瞬间进入 ANR(应用无响应)黑洞。 如何处理流式数据中的“背压(Backpressure)”?如何在鸿蒙有限的移动端内存中实现高效的报文分拣? 本文将作为 sse_stream 适配的进阶篇,

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

TRAE 接入方舟 Coding Plan教程(AI IDE 字节系)

1 下载&安装TRAE 1.1 什么是 TRAE ? 字节跳动发布的AI原生编程工具,可帮助开发者从0到1开发完整项目。 TRAE(/treɪ/)深度融合 AI 能力,是一名能够理解需求、调用工具并独立完成各类开发任务的“AI 开发工程师”,帮助你高效推进每一个项目。 支持以下功能: 实时续写代码调试运行智能排查Bug版本控制自动构建项目一键预览效果解答技术难题 1.2 下载 国内版下载地址(推荐):https://www.trae.cn/ide/download 国际版下载地址(适合已订阅国外大模型的用户): https://www.trae.ai/download 目前支持的系统(注意:Linux版本需要预约候补): * Windows * macOS * Linux 1.3 安装  点击打开已下载的安装包,

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略

AI之Tool:Google Stitch的简介、安装和使用方法、案例应用之详细攻略 目录 Google Stitch的简介 1、特点 Google Stitch的安装和使用方法 1、安装 2、使用方法 Google Stitch的案例应用 在电商和内容型页面上 在迭代层面,Stitch 很适合做“局部修正”案例 从草图到原型 Google Stitch的简介 2026年3月18日,Stitch 是 Google Labs 推出的实验性 AI 设计工具,官方把它描述为一个 AI-native software design canvas:你可以用自然语言、图片、文本甚至代码来生成高保真 UI,并在同一个画布里继续迭代、协作和完善设计。它的目标是把“想法”更快地变成“可预览的界面”

whisper.cpp CUDA加速终极指南:解锁NVIDIA GPU完整性能

whisper.cpp CUDA加速终极指南:解锁NVIDIA GPU完整性能 【免费下载链接】whisper.cppOpenAI 的 Whisper 模型在 C/C++ 中的移植版本。 项目地址: https://gitcode.com/GitHub_Trending/wh/whisper.cpp 还在为语音识别速度慢而烦恼吗?🤔 whisper.cpp结合CUDA技术,可以让你的语音识别速度提升3-10倍!无论你是AI开发者还是语音应用爱好者,本指南都将带你从零开始,轻松实现GPU加速,告别漫长的等待时间。 快速上手:一键开启CUDA加速 环境准备与安装 首先确认你的系统满足以下条件: * NVIDIA GPU(计算能力≥3.5) * 已安装CUDA Toolkit * 支持C++17的编译器 安装验证步骤: nvidia-smi nvcc --version 如果看到GPU信息和CUDA版本,恭喜你!