AI测试 开源项目:WHartTest v2.0.0 发布 - AI 驱动的智能测试用例生成平台
WHartTest v2.0.0 发布:AI 驱动的测试自动化平台
如果你还没听过 WHartTest,可以先用一句话理解它:
WHartTest 是一个开源的 AI 驱动测试自动化平台,帮助团队把“需求理解 -> 用例生成 -> 测试执行 -> 结果回传”串成一个完整流程。
它基于 Django REST Framework + Vue 构建,融合 LangChain/LangGraph、知识库检索、MCP 工具调用等能力,目标是让测试团队更快、更稳地落地 AI。





为什么做 WHartTest?
很多团队在用 AI 做测试时会遇到几个共同问题:
- 只能“对话”,难进真实测试流程
- 工具调用不够可控,缺少审批与边界
- Token 成本和质量数据不可观测
- 自动化能力零散,难形成闭环
WHartTest 的定位就是:不是单点 AI 功能,而是面向测试团队的工程化平台能力。
WHartTest 可以做什么?
- 基于需求文档和知识库生成结构化测试用例
- 支持 AI 需求评审、风险提示与测试建议
- 集成 MCP 工具调用,支持自动化执行与回传
- 支持项目隔离、权限控制、提示词管理
- 支持测试执行过程管理、截图与结果追踪
v2.0.0 重点升级
这次 v2.0.0 的核心不是“加几个按钮”,而是把稳定性、可控性、可观测性全面升级。
1. 架构升级:Agent 能力更稳定
- LangChain 升级到 v1.x 体系(含 LangGraph v1.x)
- 重构 Agent Loop,统一创建方式
- 引入 Middleware 机制,支持上下文压缩与 HITL 流程
2. 可控升级:AI 工具调用可治理
- 新增工具“始终拒绝”策略(自动拒绝高风险工具调用)
- 图表编辑器支持 HITL 工具审批卡片与中断恢复
- 集成并优化 agent-browser 稳定性
3. 可观测升级:Token 与成本更透明
- Token 用量追踪与统计看板增强
- 优化计费精度,按真实 usage_metadata 统计
- 修复重复累加与时区偏差问题
4. 体验与韧性升级
- 修复重试导致的消息前后端不同步
- 修复 HTML 消息显示与换行问题
- 优化流式响应在审批等待场景的状态判断
- 增加版本检查与 Draw.io 超时降级机制
这对团队意味着什么?
- 更稳:长链路 Agent 场景更可靠
- 更可控:关键工具调用可审批、可限制
- 更可管:Token 成本和执行过程可追踪
- 更易落地:从“AI 能用”走向“团队可持续使用”
快速体验(Docker)
如果项目对您有用请点个 star~ 支持一下,谢谢
git clone https://github.com/MGdaasLab/WHartTest.git cd WHartTest cp .env.example .env docker-compose up -d