OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

还在为AI联网搜索头疼费?这篇文章教你实现AI联网搜索

背景

现在AI助手大火,但是大部分都不支持联网搜索。能够联网的Perplexity一个月要20美元,对个人开发者来说确实有点肉疼。

作为一个程序员,我一直在找免费或者低成本的解决方案。直到我发现OpenClaw这个开源平台,可以很方便地自定义Skill,配合智谱AI的GLM模型,实现了免费联网搜索功能。

什么是OpenClaw

OpenClaw是一个开源的AI助手平台,支持:

  • 多个AI模型(GPT、Claude、GLM等)
  • 自定义Skill(技能)
  • 多种部署方式
  • 飞书、Telegram等多平台接入

官方文档:https://github.com/openclaw/openclaw

核心思路

利用OpenClaw的自定义Skill功能,调用智谱AI的GLM模型。GLM模型支持联网搜索工具(web_search),我们只需要:

  1. 申请智谱AI的API Key
  2. 编写调用脚本
  3. 配置到OpenClaw

详细配置步骤

第一步:申请智谱AI API Key

  1. 打开 https://open.bigmodel.cn/
  2. 注册账号(新用户有免费额度)
  3. 登录后进入控制台
  4. 点击左侧「API Keys」
  5. 点击「创建API Keys」
  6. 复制保存好Key

第二步:创建Skill目录结构

在OpenClaw的skills目录下创建:

glm-web-search/ ├── _meta.json ├── SKILL.md └── scripts/ └── search.mjs 

第三步:配置文件

_meta.json:

{"ownerId":"local","slug":"glm-web-search","version":"1.0.0"}

SKILL.md:

--- name: glm-web-search description: 使用智谱AI GLM模型进行联网搜索 metadata: {"openclaw":{"emoji":"🔍","requires":{"env":["ZHIPU_API_KEY"]}}} --- # GLM Web Search 使用智谱AI的GLM模型进行联网搜索。 ## 环境变量 需要配置 ZHIPU_API_KEY 环境变量。 

第四步:编写搜索脚本

创建 scripts/search.mjs,核心代码:

const apiKey = process.env.ZHIPU_API_KEY;const endpoint ="https://open.bigmodel.cn/api/paas/v4/chat/completions";const body ={model:"glm-4-flash",messages:[{role:"user",content:`请搜索:${query}`}],tools:[{type:"web_search",web_search:{search_query: query }}],tool_choice:"auto"};const resp =awaitfetch(endpoint,{method:"POST",headers:{"Content-Type":"application/json","Authorization":`Bearer ${apiKey}`},body:JSON.stringify(body)});const data =await resp.json(); console.log(data.choices[0].message.content);

第五步:配置环境变量

exportZHIPU_API_KEY="你的API密钥"

第六步:重启服务

openclaw restart 

使用效果

配置完成后,直接对话:

用户:帮我查一下最新的AI新闻 AI:以下是最新AI相关新闻: 1. OpenAI发布新模型GPT-5... 2. Anthropic发布Claude 4... 3. 智谱AI更新GLM-5... (自动联网搜索并返回结果) 

效果对比

方案月费用稳定性搜索效果
Perplexity Pro$20稳定
ChatGPT Plus$20一般一般
第三方搜索API¥50+一般一般
本文方案免费稳定够用

注意事项

  1. 智谱AI免费额度有限,建议合理使用
  2. 目前仅支持中文搜索效果最佳
  3. 如需大规模使用,建议升级付费套餐

总结

通过OpenClaw + 智谱AI的组合,我们实现了:

  • ✅ 免费联网搜索
  • ✅ 中文搜索效果好
  • ✅ 部署简单

对于个人开发者或者小团队来说,这个方案完全可以满足日常需求。如果你有更好的方案,欢迎评论区交流!


参考:

  • OpenClaw GitHub: https://github.com/openclaw/openclaw
  • 智谱AI官网: https://open.bigmodel.cn/

标签: OpenClaw 智谱AI GLM 联网搜索 AI工具 免费


本文原创,转载注明出处

Read more

【Java 开发日记】我们来说一下无锁队列 Disruptor 的原理

【Java 开发日记】我们来说一下无锁队列 Disruptor 的原理

目录 一、为什么需要 Disruptor?—— 背景与问题 二、核心设计思想 三、核心组件与原理 1. 环形缓冲区(Ring Buffer) 2. 序列(Sequence) 3. 序列屏障(Sequence Barrier) 4. 等待策略(Wait Strategy) 5. 事件处理器(EventProcessor) 6. 生产者(Producer) 四、工作流程示例(单生产者 -> 单消费者) 五、多消费者与依赖关系 六、总结:Disruptor 高性能的秘诀 一、为什么需要 Disruptor?—— 背景与问题 在高并发编程中,传统的队列(如 java.

By Ne0inhk
Java-Spring入门指南(十四)利用IDEA教你构建第一个SpringMVC系统

Java-Spring入门指南(十四)利用IDEA教你构建第一个SpringMVC系统

Java-Spring入门指南(十四)SpringMVC项目实战搭建 * 前言 * 一、首先导入我们的Maven * 二、接着导入SpringMVC相关的包 * 三、创建Servlet_web环境 * (1)配置springmvc.xml * (2)配置web.xml里面的中央处理器 * (3)为什么需要配置前端控制器? * 五、配置最新的tomcat 11 * 六、运行项目 前言 * 在上一篇博客中,我们系统学习了SpringMVC的核心流程与组件分工,明确了DispatcherServlet(前端控制器)、HandlerMapping(处理器映射器)等组件的协作逻辑。 * 理论之后更需实践,如何从0到1搭建一个可运行的SpringMVC项目,如何将核心组件配置落地,是本次实战的核心目标。 * 本文将基于Maven+IDEA+Tomcat 11环境,一步步完成SpringMVC项目的搭建、配置与运行,让你直观感受“理论”到“实战”的转化过程。 我的个人主页,欢迎来阅读我的其他文章 https:

By Ne0inhk
javaSE————网络原理

javaSE————网络原理

今天巨无聊,全是概念,重点记一下五元组,TCP/IP五层模型和OSI七层调用模型,大家这期就当看故事啦; 1,网络发展史 1)独立模式 我们刚开始使用计算机呢,客户端的数据不是共享的,如果有一个人想要办理业务,而这个业务所需的资源是在三台电脑上,那么这个人就需要在这三个电脑上不断的办理任务,而其他人想要办理业务,还需要等到前一个人办理完,效率非常低,那怎么办,我们就改进; 2)网络互联 接下来我们就使用网络进行计算机资源的共享,让多个计算机可以一起办理业务,达成数据共享,即网络通信,我们可以根据网络互联的规模分为局域网和广域网; 3)局域网LAN 局域网是本地,局部构建的一种私有网络,又被称为内网,局域网内的主机能够实现网络通信,局域网和局域网在没有连接的情况是不能进行通信的; 组件局域网等待方式也有很多种,可以通过网线直连,也可以通过交换机相连,还可以通过集线器相连,还可以通过路由器连接交换机在与多个主机相连; 4)广域网WAN 广域网就是多个局域网完成了连接,很多很多的局域网都能进行网络通信,我们其实可以把咱们中国的网络看成一个巨大的广域网,我们管内部

By Ne0inhk
Java 大视界 -- Java 大数据在智能教育学习成果评估体系完善与教育质量提升中的深度应用(434)

Java 大视界 -- Java 大数据在智能教育学习成果评估体系完善与教育质量提升中的深度应用(434)

Java 大视界 -- Java 大数据在智能教育学习成果评估体系完善与教育质量提升中的深度应用(434) * 引言: * 正文: * 一、Java 大数据赋能智能教育评估的核心逻辑 * 1.1 教育评估数据特性与 Java 技术栈的精准适配 * 1.1.1 核心价值:从 “经验驱动” 到 “数据驱动” 的范式跃迁 * 1.2 数据流转与评估建模的底层逻辑 * 二、核心技术架构与落地路径(可直接复用) * 2.1 分层解耦的高可用架构设计 * 2.1.1 采集层:高并发多端数据接入(Java + Kafka) * 2.1.2 处理层:Spark + Hive 实现海量数据清洗与建模 * 2.1.

By Ne0inhk