AI 也能操控浏览器了?OpenClaw Browser Relay 接入指南

AI 也能操控浏览器了?OpenClaw Browser Relay 接入指南

目录


为什么需要 Browser Relay?

兄弟姐妹们,有没有这些痛点:

😭 想自动化操作浏览器,但工具配置复杂、代码一大串还容易报错
😭 页面稍微变一下,脚本就失效,维护到头秃
😭 遇到登录态、Cookie、JavaScript 渲染的页面,直接歇菜

好消息来了! 🎉

OpenClaw Browser Relay 直接用 AI 控制浏览器!不用记 API、不用写复杂脚本,只要会说话(打字)就行!从此以后:

从此以后:

✅ “帮我去某某网站查个数据” —— AI 自动打开浏览器、登录、查询、返回结果
✅ “把这个表单填了” —— AI 自动识别表单字段、填写、提交
✅ “截个图” —— AI 秒开浏览器、访问网址、截图、发给你
✅ “点页面上那个蓝色按钮” —— AI 视觉识别 + 点击,一气呵成

一句话:让浏览器听你的话,像聊天一样简单。别废话了,开干!💪


浏览器模式

OpenClaw 提供了三种浏览器控制模式,每种对应不同的使用场景,这里只介绍Extension Relay模式。

扩展中继模式(Extension Relay)

适用场景

  • ✅ 需要访问已登录的网站(Gmail、飞书、企业后台)
  • ✅ 想复用浏览器的 Cookie 和 Session
  • ✅ 临时性、轻量级的自动化任务

工作原理
在你现有的 Chrome 浏览器上安装一个扩展程序,这个扩展会通过 WebSocket 连接到 OpenClaw 网关。当 AI 需要操作浏览器时,命令通过网关→扩展→浏览器的链路执行。

优点

  • 🎯 直接使用你的登录状态(不用重新登录)
  • 🎯 和你自己的浏览器共享配置(代理、插件等)
  • 🎯 轻量级,不需要启动额外的浏览器实例

缺点

  • ⚠️ 安全性较低(AI 理论上能访问你所有标签页)
  • ⚠️ 依赖扩展稳定性(扩展挂了就得重装)
  • ⚠️ 高级功能受限(截图、ARIA 快照需要额外配置)

配置方法

  1. 安装扩展:
openclaw browser extension install
  1. 获取扩展路径:
openclaw browser extension path 
  1. 在 Chrome 中加载:
    • 打开 chrome://extensions
    • 启用"开发者模式"
    • 选择上面命令输出的路径
  2. 配置扩展:
    • 点击扩展图标
    • 输入端口:18789,没有修改的话默认就是这个
    • 在下面输入token,下面显示绿色的一行表示成功

找到下面下图的token,cat ~/.openclaw/openclaw.json

在这里插入图片描述

点击"加载已解压的扩展程序"

在这里插入图片描述
在这里插入图片描述

使用
要先打开谷歌浏览器,开一个标签,点击下地址栏右边图标,会有个on显示在图标上(如果是个感叹号,说明没有配置对)。此时则可以使用openclaw操作谷歌浏览器了。

在这里插入图片描述

踩坑记录

1.在配置插件的时候会遇到连接不上,或者能够打开浏览器但是不能控制网页,执行openclaw gateway status有如下错误:

gateway connect failed: Error: pairing required ◇ Error: gateway closed (1008): pairing required Gateway target: ws://127.0.0.1:18789 Source: local loopback Config: /home/user/.openclaw/openclaw.json Bind: loopback 

解决方法

OpenClaw 采用了类似蓝牙的配对机制。为了防止你电脑上的恶意软件通过 127.0.0.1:18789 偷偷控制你的浏览器并窃取数据(如 Cookie 或登录状态),OpenClaw 要求每一个试图连接网关的客户端(包括 CLI 本身)都必须经过一次显式的配对授权。

openclaw gateway stop 

删除旧的身份限制文件

rm -rf ~/.openclaw/identity/ ~/.openclaw/devices/ openclaw gateway start 

重新进行配对(此时会授予默认权限):
openclaw browser --browser-profile chrome tabs


实战案例:AI 帮你干活

光说不练假把式,来看几个真实的使用场景!

案例一:自动查资料 + 总结

需求:去知乎搜索"人工智能",总结热门观点

对你的 AI助手说:

帮我去知乎搜索"人工智能",总结一下热门文章的核心观点 

AI 自动执行:

  1. 打开知乎
  2. 输入搜索词
  3. 浏览搜索结果
  4. 提取文章内容
  5. 生成总结报告

耗时:从 30-60 分钟降到 2-3 分钟

实际命令流(AI 内部执行):

openclaw browser open https://www.zhihu.com openclaw browser type e5 "人工智能"# 搜索框# e5 = 从快照中识别的搜索框元素引用 openclaw browser click e8 # 搜索按钮 openclaw browser snapshot openclaw browser text # 提取页面文本# AI 分析并生成总结

觉得有用?点个赞 + 收藏支持下!💖 关注我,获取更多 AI 实战干货!🚀

Read more

OpenClaw 中 web_search + web_fetch 最佳实践速查表

OpenClaw 中 web_search + web_fetch 最佳实践速查表

OpenClaw 中 web_search + web_fetch 最佳实践速查表 摘要:本文帮助读者明确 OpenClaw 网络搜索工具和不同搜索技能的的职责边界,理解“先搜索、再抓取、后总结”的最佳实践,并能更稳定地在 OpenClaw 中使用 tavily-search 与 web_fetch 完成网络信息搜索任务。主要内容包括:解决 OpenClaw 中 web_search、tavily-search、web_fetch、原生 provider 与扩展 skill 容易混淆的问题、网络搜索能力分层说明、OpenClaw 原生搜索 provider 与 Tavily/Firecrawl 扩展 skill 的区别、标准工作流、提示词模板、

【AI开发入门】从小白到专家:AI应用开发工程师全指南,岗位认知到实战落地!

【AI开发入门】从小白到专家:AI应用开发工程师全指南,岗位认知到实战落地!

一、解码AI应用开发工程师:大模型时代的落地者 在投身AI应用开发学习前,先锚定岗位核心身份,才能让后续的学习之路不偏航。如今频繁出现在招聘启事里的“AI应用开发工程师”,也常被称作大模型应用开发工程师,堪称连接前沿大模型技术与商业价值的“桥梁型”人才。 与聚焦算法创新、模型训练的AI算法工程师不同,这个岗位的核心使命是“落地”——把OpenAI、通义千问等大模型的抽象能力,转化为企业能直接使用的产品和服务。它绝非简单调用API的“工具使用者”,而是需要构建一套包含数据处理、逻辑编排、部署运维的完整系统。随着ChatGPT等大模型引爆产业变革,这类“能让AI干活”的工程师,已成为互联网、金融、医疗等行业争抢的香饽饽。 举个直观例子:当企业需要一套智能客服系统时,算法岗可能在优化对话生成的流畅度,而AI应用开发工程师则要负责对接企业知识库、设计用户意图识别逻辑、通过RAG技术提升回答准确性,最终把这些能力打包成稳定运行的服务,还得考虑并发量、响应速度等工程问题。 二、岗位画像:企业到底要什么样的人才? 多数人学习AI应用开发的终极目标是就业,因此在学习初期就摸清招聘市场的“需

OpenClaw联网工具完全指南:让AI获取实时信息的能力最大化

OpenClaw联网工具完全指南:让AI获取实时信息的能力最大化

手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 最近很多人都在玩OpenClaw(就是那个挺火的AI助理,大家都叫它“龙虾”),部署完后就兴冲冲地给它派活。 比如有位朋友让小助理查查AI硬件的最新进展,结果折腾半天,AI最后回了一句:办不到。甚至查一些国内的信息也经常碰壁。 我也吃过这种亏,这几天花时间钻研了一下,总算把这事搞明白了。今天就来跟大家唠唠,OpenClaw的联网搜索能力到底是怎么一回事? 手把手教你一键部署OpenClaw,连接微信、QQ、飞书、钉钉等,1分钟全搞定! 一、自带的工具(其实挺鸡肋) OpenClaw出厂自带了三个联网工具:web_search、web_fetch和browser。 web_search这玩意儿本质是个搜索接口,但它非得要Brave的API KEY才能动。这KEY特别难搞,所以大部分人的小助理搜不到东西,主要是因为有枪没子弹。 web_fetch是用来读网页的。你直接甩给它一个链接,它能把里面的内容抓出来。这个功能倒还算靠谱,能正常干活。 手把手教你一键部署OpenClaw,连接微信、

临界点:DeepSeek v4 会在本周末发布吗?外置记忆、IPO 潮与 AI 圈的“终局大筛选”

如果说 2025 年初的 DeepSeek R1 是一场对全球算力霸权的“冷暴力”,那么此刻传闻将在本周末(2026 年 3 月初)降临的 DeepSeek v4,则更像是一场对大模型物理局限性的“降维打击”。 就在刚刚过去的“两会”开幕前夕,关于 DeepSeek v4 优化的风声已传遍硅谷与中关村。这一次,它不再只是在卷逻辑推理,而是要在**“模型架构”**上彻底翻篇。 一、 “外置记忆”革命:DeepSeek v4 的技术杀手锏 要理解 v4,必须深挖其在 2025 年至 2026 年初发布的一系列重磅论文,尤其是关于 Engram(Conditional Memory via Scalable Lookup) 的研究。