WebArena:一个真实的网页环境,用于构建更强大的自主智能体

WebArena:一个真实的网页环境,用于构建更强大的自主智能体

WebArena:一个真实的网页环境,用于构建更强大的自主智能体

最近,在 ICLR 2024 上发表了一篇来自卡内基梅隆大学的论文——WebArena: A Realistic Web Environment for Building Autonomous Agents(arXiv: 2307.13854)。这篇论文提出并实现了一个高度逼真、可复现的网页环境,专门用于开发和评估基于自然语言指令的自主智能体(Autonomous Agents)。今天这篇博客就来详细介绍这篇论文:它到底想解决什么问题、如何解决,以及其中的关键细节。

解决什么问题?

随着大语言模型(如 GPT-4)的快速发展,研究者们开始探索让 AI 智能体通过自然语言指令完成日常任务,比如“帮我在网上买个东西”或“去 GitLab 上更新 README”。然而,现有的智能体评估环境存在几个严重问题:

  1. 过于简化、不真实:很多环境(如 MiniWoB、WebShop、Mind2Web)要么功能受限,要么使用静态缓存页面,无法反映真实网页的复杂交互、多样内容和动态变化。
  2. 任务复杂度低:现有任务往往只需要几步操作就能完成,缺乏人类在真实互联网上经常遇到的长序列、需要规划和探索的任务。
  3. 评估方式不合理:很多环境只比较预测动作序列与参考序列的文本相似度,而忽略了功能正确性(functional correctness),即最终是否真正完成了目标。
  4. 不可复现:依赖真实网站会导致 CAPTCHA、内容变动、配置变更等问题,难以公平比较不同系统。

这些问题导致智能体在模拟环境里表现不错,但一到真实世界就“翻车”。论文的目标就是构建一个既高度真实又完全可复现的网页环境,来推动更鲁棒的自主智能体开发。

如何解决?—— WebArena 的核心设计

WebArena 的核心是一个独立、可自托管的网页环境,使用 Docker 容器封装,所有网站都是开源实现 + 从真实网站采样数据填充,完全脱离真实互联网,避免了上述不可复现问题。

1. 包含的网站与工具(四大领域 + 辅助工具)

论文根据作者们真实浏览器历史分析,选出了互联网上最常见的四大类网站,并各实现了一个功能完整的实例:

  • 电商平台:OneStopShop(类似 Amazon/eBay),支持浏览、搜索、购物车、下单等完整流程。
  • 社交论坛:类似 Reddit,支持发帖、评论、子版块等。
  • 协作开发平台:基于真实 GitLab 开源代码搭建,支持仓库、Issue、Merge Request 等。
  • 内容管理系统(CMS):类似在线商店后台,支持商品管理、订单查看等。

此外,还加入了人类常用辅助工具(作为独立网站):

  • 地图(类似 Google Maps,支持搜索 POI、路线规划)
  • 计算器
  • 便签本(Scratchpad,用于记笔记)

以及知识资源:

  • 英文 Wikipedia
  • 各网站的用户手册

这些工具和知识库的加入,鼓励智能体像人类一样“多开标签页”、查资料、做笔记、规划路线。

2. 观察空间(Observation Space)

为了尽可能贴近人类浏览体验,观察包括:

  • 当前 URL 和所有打开的标签页
  • 当前焦点标签页的内容,可选择三种表示方式:
    • 原始 HTML DOM 树
    • 截图(像素级别)
    • 可访问性树(Accessibility Tree)(推荐):比 DOM 更简洁,只保留对用户有意义的元素(角色、文本、可交互性),适合文本模型输入。
在这里插入图片描述

支持多标签页操作,是首个明确支持多标签的网页智能体环境。

3. 动作空间(Action Space)

设计了一套仿键盘+鼠标的复合动作,包括:

  • 元素操作:click、hover、type、press 键、scroll
  • 标签页操作:new_tab、tab_focus、tab_close
  • 导航操作:go_back、go_forward、goto URL

元素选择支持两种方式:

  • 坐标 (x,y)
  • 元素 ID(在可访问性树或 DOM 中自动标注的唯一编号,如 click [1582]),把元素选择变成分类问题,非常方便。
4. 基准任务集(Benchmark)

论文发布了 812 个测试任务,来自 241 个模板,每个模板平均实例化 3.3 个。

任务特点:

  • 高层次、自然语言指令:例如“在 Pittsburgh 找几家艺术博物馆,规划开车距离最短的路线,然后把路线更新到对应仓库的 README 中”。
  • 长序列、需要规划:平均需要多步操作,甚至跨多个网站。
  • 分为三大类:
    1. 信息查找(需要返回文本答案)
    2. 站点导航
    3. 内容与配置操作(发帖、购物、修改设置等)

还有一部分不可完成任务(如询问网站没有提供的联系电话),考察智能体是否会胡编。

在这里插入图片描述
5. 评估方式:强调功能正确性

这是 WebArena 最亮眼的设计之一:

  • 信息查找类:提供参考答案,使用 exact_match、must_include 或 GPT-4 做 fuzzy_match 评估语义等价。
  • 导航与操作类:编写程序(r_prog)直接检查执行轨迹中的中间状态(数据库、最终页面内容、URL 等),验证是否真正达到了目标。

这种评估方式更可靠、容错(允许多条合理路径),也更贴近真实需求。

实验结果:当前顶尖模型还差得很远

论文用 GPT-4、PaLM-2 等模型做了基线实验(few-shot + CoT),最佳配置(GPT-4 + CoT)端到端成功率只有 14.41%,而人类在相同任务上的成功率是 78.24%

这说明:

  • 当前大模型在复杂、长序列的真实网页任务上仍有巨大差距。
  • 缺少主动探索、失败恢复、长期规划等关键能力。

WebArena 正是为衡量这类进步而设计的基准。

总结与意义

WebArena 的贡献在于:

  1. 提供了一个真实感极强(完整功能网站 + 真实采样数据 + 辅助工具)的网页环境。
  2. 完全可复现、自托管,避免了真实网站的不稳定。
  3. 发布了812 个高质量、长序列、功能正确性评估的基准任务。
  4. 实验证明当前最强模型在真实网页任务上表现远不如人类,为未来研究指明了方向。

项目已完全开源:代码、环境复现脚本、任务、视频演示都在 https://webarena.dev/。

如果你正在研究自主智能体、网页导航、具身智能或 Agent Benchmark,这篇论文和 WebArena 绝对值得深入体验。它让我们看到了当前技术的真实水平,也为下一代更聪明、更可靠的 AI 代理指明了努力方向。

WebArena Benchmark 使用指南(基于官方 GitHub 仓库)

WebArena 是 ICLR 2024 论文的开源实现(arXiv:2307.13854),一个独立、自托管的网页环境,用于测试自主 Agent 在真实网页任务上的性能。仓库地址:https://github.com/web-arena-x/webarena。

它包含 812 个长序列任务(信息查找、站点导航、内容操作),强调功能正确性评估(检查数据库/页面状态,而非动作序列匹配)。人类成功率 ~78%,原 GPT-4 基线仅 14.41%。截至 2025 年底,最强单 Agent 已达 64.2%(Narada Operator),如 IBM CUGA 61.7%、AWA 1.5 57%、OpenAI Operator ~58-65%。

Leaderboard:https://docs.google.com/spreadsheets/d/1M801lEpBbKSNwP-vDBkC_pF7LdyGU1f_ufZb_NWNBZQ/edit?usp=sharing(手动提交结果)。

使用门槛:需要 Docker/Python 经验,高配机器(GitLab 容器 ~100GB)。不能用官网 demo 跑正式实验(仅教育用途),必须本地自建环境确保可复现。

1. 前提条件(Prerequisites)
  • Python 3.10+
  • Conda(推荐)
  • Docker(环境托管)
  • OpenAI API Key(基线 Agent 用,export OPENAI_API_KEY=sk-...
  • 高内存/CPU(推荐 AWS AMI 预装镜像,避免手动建站)
2. 安装依赖(Installation)
conda create -n webarena python=3.10 conda activate webarena pip install -r requirements.txt playwright install# 安装浏览器(Chromium 等) pip install -e .# 可编辑安装# 可选:开发模式 pip install -e ".[dev]" mypy --install-types --non-interactive browser_env agents evaluation_harness pip install pre-commit pre-commit install
3. 搭建环境(Environment Setup) - 核心步骤

环境用 Docker 运行多个网站(OneStopShop 电商、Reddit、GitLab、CMS、地图、Wikipedia 等)。

  • 详见 /environment_docker/README.md
  • 推荐:用 AWS AMI(预装所有网站,快速启动)。
  • 启动后,配置网站 URL(替换为你的域名/端口):
exportSHOPPING="<your_shopping>:7770"exportSHOPPING_ADMIN="<your_cms>:7780/admin"exportREDDIT="<your_reddit>:9999"exportGITLAB="<your_gitlab>:8023"exportMAP="<your_map>:3000"exportWIKIPEDIA="<your_wiki>:8888/wikipedia_en_all_maxi_2022-05/A/User:The_other_Kiwix_guy/Landing"exportHOMEPAGE="<your_home>:4399"
  • 重置环境:用脚本恢复初始状态。
  • 获取自动登录 Cookie:
mkdir -p ./.auth python browser_env/auto_login.py 
4. 生成任务配置(Generate Config Files)
python scripts/generate_test_data.py 

输出 812 个 .json/config_files/(每个任务的高层意图 + 验证器)。

5. 快速测试(Quick Start)

minimal_example.py 体验 Gym-like 接口:

from browser_env import ScriptBrowserEnv, create_id_based_action import random env = ScriptBrowserEnv( headless=False,# headless=True 后台运行 observation_type="accessibility_tree",# 或 "html" / "screenshot" current_viewport_only=True, viewport_size={"width":1280,"height":720},) config_file ="config_files/0.json"# 示例任务 obs, info = env.reset(options={"config_file": config_file})# 示例动作:ID-based click(推荐,精确无歧义) id_ = random.randint(0,1000) action = create_id_based_action(f"click [{id_}]") obs, _, terminated, _, info = env.step(action)

观察:URL + 多标签页 + 内容(Accessibility Tree 最优)。动作:click/hover/type/new_tab 等。

6. 运行基线 Agent & 评估(Run Baselines & Evaluate)

run.py 跑 few-shot/CoT Agent(GPT-4o 等):

python run.py \ --instruction_path agent/prompts/jsons/p_cot_id_actree_2s.json \# CoT 提示模板 --test_start_idx 0\ --test_end_idx 812\# 全 benchmark --model gpt-4o \# 或 gpt-3.5-turbo --result_dir ./results 
  • 输出:HTML 轨迹(./results/0.html),自动评估成功率。
  • 并行跑:/parallel_run.sh
  • 评估/evaluation_harness 检查功能正确性(r_info / r_prog),支持离线验证。
  • 结果上传 Leaderboard 分享。
7. 实现自己的 Agent
  • 提示工程:在 /agent/prompts/raw 定义 JSON(intro/examples/template/meta_data)。
  • Prompt Constructor:继承 /agent/prompts/prompt_constructor.py,实现 construct(建输入)和 _extract_action(解析输出)。
  • 示例:CoT/ReAct 风格,支持 ID-based 动作。
  • 集成其他 LLM:/llms/
8. 关键目录
目录/文件作用
/agentAgent 提示 & 实现
/browser_env浏览器环境 & 自动登录
/config_files任务 JSON
/environment_dockerDocker 搭建
/evaluation_harness评估工具
/resources人类轨迹/执行记录
run.py主运行脚本
minimal_example.py快速 demo
9. 常见问题 & 更新(2025)
  • bug 修复:v0.2.0 修复标注错误;2025 更新 mypy 类型检查、地图后端内存。
  • 扩展:新 benchmark(终端/编码任务,12/2024);ZenoML 集成(/scripts/webarena-zeno.ipynb)。
  • 问题:Docker 镜像大,用 AMI;CVE-2025-4022 已修补。
  • 社区:GitHub Issues;X 上活跃讨论新 SOTA。

资源

  • 官网:https://webarena.dev/(视频/任务示例)
  • 论文/轨迹:仓库 /resources
  • 跑完分享结果到 Leaderboard,推动研究!

搭好后,就能公平测试 Agent 了。最新 SOTA 仍远低于人类,空间巨大~ 😎

后记

2025年12月29日于上海。在grok fast辅助下完成。

Read more

Qwen3-8B vs 其他8B模型:开源大模型性能对比实测

Qwen3-8B vs 其他8B模型:开源大模型性能对比实测 在当前大语言模型“军备竞赛”愈演愈烈的背景下,千亿参数模型固然引人注目,但真正决定AI技术能否落地千行百业的,往往是那些能在普通硬件上跑得动、用得起、管得住的轻量级选手。当A100集群不再是入场券,8B级别的模型正悄然成为开发者手中的“主力战力”。 这其中,阿里通义千问最新发布的 Qwen3-8B 引起了不小关注——它不仅宣称在多项基准测试中超越同级对手,更以对中文场景的深度优化和长达32K的上下文支持,试图在Llama3-8B、Gemma-7B、Mistral-7B等国际主流模型中杀出一条差异化路径。 那么,这款被寄予厚望的国产8B模型,到底强在哪里?我们不妨抛开宣传口径,从技术细节到实际部署,做一次穿透式的分析。 为什么是8B?一个被低估的“黄金平衡点” 很多人认为,大模型越大越好。但现实很骨感:70B模型即使用量化技术,在消费级显卡上也步履维艰;而小至1B~3B的模型又难以胜任复杂推理任务。8B参数规模恰好落在一个微妙的“甜区”—— * 它有足够的容量学习复杂的语言模式和常识知识; * FP16精度下

By Ne0inhk
抛弃无头浏览器!阿里9K Star开源神作Page-Agent:用一行JS代码让大模型寄生前端DOM

抛弃无头浏览器!阿里9K Star开源神作Page-Agent:用一行JS代码让大模型寄生前端DOM

抛弃无头浏览器!阿里9K Star开源神作Page-Agent:用一行JS代码让大模型"寄生"前端DOM 当传统的自动化脚本还在艰难地寻找 DOM 节点时,Page-Agent 已经在你的网页里主动问用户:“这份30个字段的报销单,我已经帮你填好了,还需要核对一下再提交吗?” 一、一场让前端圈彻底沸腾的开源风暴 2026年初,GitHub 上出现了一个现象级的开源项目——Page-Agent(由阿里开源)。如果说过去两年的 Web AI 创新多集中在后端的 API 调用,那么 Page-Agent 则是一场属于前端和界面的燎原烈火。 这不是普通的开源库,这是前端交互范式的"海啸": * 📈 惊人的引入曲线: 从发布到飙升至 9,000+ Stars,并在 Hacker News 等社区霸榜。它将极其复杂的"网页级智能体"

By Ne0inhk