OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

OpenClaw配置GLM联网搜索 - 免费使用AI搜索功能

还在为AI联网搜索头疼费?这篇文章教你实现AI联网搜索

背景

现在AI助手大火,但是大部分都不支持联网搜索。能够联网的Perplexity一个月要20美元,对个人开发者来说确实有点肉疼。

作为一个程序员,我一直在找免费或者低成本的解决方案。直到我发现OpenClaw这个开源平台,可以很方便地自定义Skill,配合智谱AI的GLM模型,实现了免费联网搜索功能。

什么是OpenClaw

OpenClaw是一个开源的AI助手平台,支持:

  • 多个AI模型(GPT、Claude、GLM等)
  • 自定义Skill(技能)
  • 多种部署方式
  • 飞书、Telegram等多平台接入

官方文档:https://github.com/openclaw/openclaw

核心思路

利用OpenClaw的自定义Skill功能,调用智谱AI的GLM模型。GLM模型支持联网搜索工具(web_search),我们只需要:

  1. 申请智谱AI的API Key
  2. 编写调用脚本
  3. 配置到OpenClaw

详细配置步骤

第一步:申请智谱AI API Key

  1. 打开 https://open.bigmodel.cn/
  2. 注册账号(新用户有免费额度)
  3. 登录后进入控制台
  4. 点击左侧「API Keys」
  5. 点击「创建API Keys」
  6. 复制保存好Key

第二步:创建Skill目录结构

在OpenClaw的skills目录下创建:

glm-web-search/ ├── _meta.json ├── SKILL.md └── scripts/ └── search.mjs 

第三步:配置文件

_meta.json:

{"ownerId":"local","slug":"glm-web-search","version":"1.0.0"}

SKILL.md:

--- name: glm-web-search description: 使用智谱AI GLM模型进行联网搜索 metadata: {"openclaw":{"emoji":"🔍","requires":{"env":["ZHIPU_API_KEY"]}}} --- # GLM Web Search 使用智谱AI的GLM模型进行联网搜索。 ## 环境变量 需要配置 ZHIPU_API_KEY 环境变量。 

第四步:编写搜索脚本

创建 scripts/search.mjs,核心代码:

const apiKey = process.env.ZHIPU_API_KEY;const endpoint ="https://open.bigmodel.cn/api/paas/v4/chat/completions";const body ={model:"glm-4-flash",messages:[{role:"user",content:`请搜索:${query}`}],tools:[{type:"web_search",web_search:{search_query: query }}],tool_choice:"auto"};const resp =awaitfetch(endpoint,{method:"POST",headers:{"Content-Type":"application/json","Authorization":`Bearer ${apiKey}`},body:JSON.stringify(body)});const data =await resp.json(); console.log(data.choices[0].message.content);

第五步:配置环境变量

exportZHIPU_API_KEY="你的API密钥"

第六步:重启服务

openclaw restart 

使用效果

配置完成后,直接对话:

用户:帮我查一下最新的AI新闻 AI:以下是最新AI相关新闻: 1. OpenAI发布新模型GPT-5... 2. Anthropic发布Claude 4... 3. 智谱AI更新GLM-5... (自动联网搜索并返回结果) 

效果对比

方案月费用稳定性搜索效果
Perplexity Pro$20稳定
ChatGPT Plus$20一般一般
第三方搜索API¥50+一般一般
本文方案免费稳定够用

注意事项

  1. 智谱AI免费额度有限,建议合理使用
  2. 目前仅支持中文搜索效果最佳
  3. 如需大规模使用,建议升级付费套餐

总结

通过OpenClaw + 智谱AI的组合,我们实现了:

  • ✅ 免费联网搜索
  • ✅ 中文搜索效果好
  • ✅ 部署简单

对于个人开发者或者小团队来说,这个方案完全可以满足日常需求。如果你有更好的方案,欢迎评论区交流!


参考:

  • OpenClaw GitHub: https://github.com/openclaw/openclaw
  • 智谱AI官网: https://open.bigmodel.cn/

标签: OpenClaw 智谱AI GLM 联网搜索 AI工具 免费


本文原创,转载注明出处

Read more

使用VS Code运行前端代码

使用VS Code运行前端代码

文章目录 * VS Code运行HTML文件 * 一、安装VS Code 配置插件 * 二、在电脑上新建文件夹 * 三、新建文件【名字.html】 * 四、运行.html文件 * VS Code运行VUE代码 VS Code运行HTML文件 提示:这里可以添加本文要记录的大概内容: 但是我在使用VS Code和Hbuilder的不同是: Hbuilder我记得是可以在菜单栏的“文件”→“新建”→“HTML5+项目”,填写项目名称、路径等信息后点击“完成”即可创建一个新项目 一、安装VS Code 配置插件 如何使用VS Code安装插件及VS Code上的常用插件点我查看 以前写HTML用的是Hbuilder,最近突然发现VS Code也不错,只需要安装open in browser插件即可 二、在电脑上新建文件夹 VS Code使用是在本地打开一个文件夹

Web 前端基础:HTML 核心语法和常用标签

HTML部分 * 一、HTML简介 * HTML是什么? * HTML骨架 * 二、HTML 标签语法 * 标签结构 * 标签嵌套关系(父子、兄弟) * HTML 注释和调试 * 三、HTML 文本排版标签 * 标题标签 h1~h6 * 段落标签 p * 换行 br、水平线 h * 文本格式化标签 * 块级元素 div & 行内元素 span * 四、HTML 图像与路径 * 相对路径与绝对路径 * 图像标签 img * 五、HTML 超链接 * 六、HTML 列表 * 无序列表` ul li` * 有序列表 `ol li`

YOLO12 WebUI:图片上传即出检测结果

YOLO12 WebUI:图片上传即出检测结果 1. 引言:让目标检测像拍照一样简单 你有没有遇到过这样的情况?看到一张照片,想知道里面都有什么物体,每个物体在哪里,但又不想费劲去一个个标注。现在,有了YOLO12 WebUI,这一切变得像拍照一样简单。 想象一下:你拍了一张街景照片,上传到网页,瞬间就能看到所有车辆、行人、交通标志都被自动识别并标注出来。这就是YOLO12 WebUI带来的体验——无需任何技术背景,无需安装复杂软件,打开网页,上传图片,立即获得专业级的目标检测结果。 YOLO12是2025年初发布的最新目标检测模型,由纽约州立大学布法罗分校与中国科学院大学团队联合开发。它在保持YOLO系列传统速度优势的同时,通过引入注意力机制,大幅提升了检测精度。现在,这个强大的模型被封装成了简单易用的Web界面,让每个人都能轻松使用最先进的目标检测技术。 2. YOLO12 WebUI 的核心功能 2.1 零门槛操作体验 YOLO12 WebUI最大的特点就是简单。你不需要知道什么是深度学习,不需要理解目标检测的原理,甚至不需要注册登录。打开网页,选择图片,

零代码基础实现图像分类|集成WebUI的ResNet18模型一键使用

零代码基础实现图像分类|集成WebUI的ResNet18模型一键使用 🌐 为什么你需要一个“开箱即用”的图像分类工具? 在深度学习快速普及的今天,图像分类已成为智能应用的核心能力之一——从自动相册归类、商品识别到内容审核,背后都离不开高效的视觉识别模型。然而,对于非技术背景的用户或希望快速验证想法的产品经理而言,部署一个稳定可用的AI服务仍面临诸多门槛: * 环境配置复杂:Python版本、CUDA驱动、PyTorch依赖等容易出错 * 模型加载困难:权重文件缺失、路径错误、权限问题频发 * 缺乏交互界面:命令行操作不直观,难以实时测试多张图片 为解决这些问题,我们推出 「通用物体识别-ResNet18」镜像服务 ——无需任何编程基础,只需三步即可完成专业级图像分类任务。 🎯 本文目标: 即使你从未写过一行代码,也能通过该镜像快速搭建属于自己的AI识别系统,并理解其背后的技术逻辑与工程优势。 🧠 技术选型解析:为何是 ResNet-18? 经典架构,久经考验 ResNet(残差网络)由微软研究院于2015年提出,彻底解决了深层神经网络训练中的梯度消失问题