LLM+RAG:AI生成测试用例智能体平台「详细介绍」

LLM+RAG:AI生成测试用例智能体平台「详细介绍」

LLM+RAG:AI生成测试用例智能体平台

1. 系统概述

AI生成测试用例智能体平台是一款基于人工智能技术的测试用例自动生成工具,利用RAG(检索增强生成)技术,能够结合项目相关知识文档和历史用例,智能生成高质量的测试用例。本平台适用于测试团队快速创建测试用例,提高测试效率和质量。

在这里插入图片描述

主要功能

  • 自动从需求文本生成结构化测试用例
  • 支持多种文档格式的知识库导入和检索
  • 结合历史用例和知识文档增强测试用例生成质量
  • 支持多种AI大语言模型接入(本地、线上)
  • 提供多种用例导出格式(Excel、JSON、Markdown)

2. 安装与配置

系统要求

  • Python 3.8+
  • 操作系统:Windows 10/11、macOS、Linux

安装步骤

  1. 安装Ollama(默认本地模型,可选)
    Ollama官网下载并安装最新版本

启动应用

streamlit run rag_test_agent.py 

下载模型(使用Ollama时)

ollama pull qwen2.5:7b 

安装依赖包

pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple 

创建并激活虚拟环境

# Windows python -m venv venv .\venv\Scripts\activate # Linux/macOS python -m venv venv source venv/bin/activate 

克隆或下载项目代码

https://xxx.git (项目源码可我联系获取) cd rag_testcase_plafform 

3. 界面介绍

应用启动后会在浏览器中打开,界面分为三个主要标签页:

3.1 生成测试用例 (📝)

左侧区域用于输入需求描述和配置生成参数,右侧显示知识库状态。

在这里插入图片描述

3.2 知识库管理 (📚)

用于上传和管理知识文档,查看已有知识库内容。

在这里插入图片描述

3.3 模型设置 (⚙️)

配置AI模型类型、参数和API连接信息。

在这里插入图片描述
在这里插入图片描述

4. 生成测试用例

4.1 输入需求描述

有两种方式输入需求描述:

上传需求文档(支持PDF、Word、TXT、Markdown、JSON格式)

在这里插入图片描述

在文本框中直接输入或粘贴

在这里插入图片描述

4.2 配置生成参数

  • AI创造性(Temperature):控制生成结果的随机性(0.1-1.0)
    • 较低值(如0.3):生成更保守、一致的结果

使用知识库和历史用例增强:勾选此选项结合已有知识库和历史用例生成更贴合场景的测试用例

在这里插入图片描述

较高值(如0.8):生成更多样化、创新的结果

在这里插入图片描述

生成最大用例数量:设置需要生成的测试用例数量(5-200个)

在这里插入图片描述

4.3 生成测试用例

  1. 系统首先会从知识库中搜索相关信息(如启用了增强功能)
  2. 调用AI模型生成测试用例

点击导出按钮,可直接导出Excel测试用例

在这里插入图片描述


在这里插入图片描述

生成完成后显示结果,并自动保存到历史记录中

在这里插入图片描述

确认输入和参数后,点击"🚀 生成测试用例"按钮

在这里插入图片描述

4.4 查看生成结果

结果以四种形式展示:

  • 表格视图:以表格形式显示测试用例
  • JSON数据:原始JSON格式数据
  • 统计信息:如优先级分布等统计图表

导出文件:提供JSON和Markdown两种导出选项

在这里插入图片描述

5. 知识库管理

5.1 上传知识文档

  1. 切换到"📚 知识库管理"标签页
  2. 上传文档(支持PDF、Word、TXT、Markdown、JSON格式)
  3. 点击"处理文档"按钮
  4. 系统会自动分析文档内容并提取知识段落

处理完成后显示提取的段落数量

在这里插入图片描述

5.2 查看知识库内容

  • 选择特定文档或查看所有文档
  • 系统显示知识段落内容,包括所属文档和页码信息

默认显示前20条记录,若数量较多会提示总数

在这里插入图片描述

6. 模型设置

6.1 选择模型提供商

  • Ollama:本地部署模型,默认选项
  • OpenAI:使用OpenAI API服务

Custom:自定义API服务

在这里插入图片描述

6.2 配置模型参数

根据选择的提供商配置相应参数:

Ollama
  • 模型名称:选择可用的本地模型(qwen2.5:7b、llama3、mixtral等)

API Base URL:默认为http://127.0.0.1:11434,本地Ollama服务地址

在这里插入图片描述
OpenAI
  • 模型名称:选择OpenAI提供的模型(gpt-4、gpt-3.5-turbo等)
  • API Key:输入OpenAI API密钥

API Base URL:默认为https://api.openai.com

在这里插入图片描述
Custom
  • 自定义模型名称:输入自定义模型名称
  • API Key:输入API密钥(如需要)

API Base URL:输入自定义API服务地址

在这里插入图片描述

7. 导出功能

7.1 导出为JSON

  1. 生成测试用例后,切换到"导出文件"标签

点击"导出为JSON"按钮下载JSON格式文件

在这里插入图片描述

7.2 导出为Markdown

  1. 生成测试用例后,切换到"导出文件"标签
  2. 点击"导出为Markdown"按钮下载Markdown格式文件

可在"Markdown预览"中查看导出效果

在这里插入图片描述

Markdown格式包含:

  • 需求描述
  • 测试用例列表(带编号和链接)

每个测试用例的详细信息(优先级、前置条件、测试步骤和预期结果)

在这里插入图片描述

导出md文件后,在xmind中导入,进行用例评审

在这里插入图片描述

8. 常见问题解答

8.1 生成的测试用例质量不高

  • 确保提供详细、明确的需求描述
  • 上传与需求相关的知识文档到知识库
  • 调整AI创造性参数,尝试不同的值
  • 勾选"使用知识库和历史用例增强"选项

8.2 模型连接失败

  • Ollama模型:确认Ollama服务已启动且能访问(默认地址:http://127.0.0.1:11434)
  • OpenAI模型:验证API密钥是否正确
  • 检查网络连接是否正常

8.3 文档上传失败

  • 确认文档格式是否支持(PDF、Word、TXT、Markdown、JSON)
  • 检查文档是否损坏或加密
  • 尝试将文档分割为更小的文件

9. 最佳实践

9.1 提高测试用例生成质量

  • 提供详细需求:包含功能细节、业务规则和边界条件
  • 充实知识库:上传项目文档、产品规格说明、原型设计等
  • 迭代优化:基于生成结果调整需求描述,多次迭代

9.2 知识库管理建议

  • 定期更新知识库文档,确保内容最新
  • 上传针对特定功能的专业文档,提高相关性
  • 对于大型文档,考虑分割后上传,提高处理效率

9.3 效率提升技巧

  • 先用较低的用例数量生成,查看质量后再增加数量
  • 利用导出功能与测试管理工具集成
  • 在团队间共享和复用知识库,避免重复工作

通过本文档,相信你应能够快速上手LLM+RAG的生成测试用例智能体平台,高效地生成和管理测试用例。如有更多问题或建议,请及时联系我。

Read more

【前端进阶之旅】50 道前端超难面试题(2026 最新版)|覆盖 HTML/CSS/JS/Vue/React/TS/ 工程化 / 网络 / 跨端

【前端进阶之旅】50 道前端超难面试题(2026 最新版)|覆盖 HTML/CSS/JS/Vue/React/TS/ 工程化 / 网络 / 跨端

文章目录 * 前言 * 一、原生开发(HTML/CSS/JavaScript) * 二、框架核心(Vue2/3、React16/18/19) * 三、网络协议 * 四、工程化 * 五、跨端开发(uniapp、uniappX) * 六、TypeScript * 写在最后 前言 作为前端开发者,想要突破中高级面试瓶颈,仅掌握基础语法远远不够 —— 大厂面试更侧重底层原理、手写实现、场景分析与跨领域综合能力。本文整理了50 道无答案版前端超难面试题,覆盖原生开发、框架核心、网络协议、工程化、跨端开发、TypeScript 六大核心方向排序且聚焦高频难点,适合自测、复盘或作为面试出题参考,建议收藏反复琢磨! 一、原生开发(HTML/CSS/JavaScript) 原生能力是前端的根基,

三级倒立摆LQR控制:Webots仿真与C语言实现之旅

三级倒立摆LQR控制——C语言Webots仿真三阶倒立摆(TIPS, Triple Inverted Pendulum System)。 需要请预约时间在线讲解教学 依旧使用Windows Webots自带编译环境及裸C实现控制,所见即所得。 使用拉格朗日法动力学建模,MATLAB符号运算验证数学推导,LQR全状态反馈控制。 (A)建模解析 + MATLAB计算 (B)Webots仿真工程 三级倒立摆是一个单输入四输出的非线性、强耦合、不稳定系统。 此Demo对于初学者掌握拉格朗日法动力学建模、MATLAB符号运算、LQR控制算法及其C语言实现和Webots建模仿真有全面性帮助; LQR控制器即线性二次型调节器 LQR(Linear Quadratic Regulator) #三级倒立摆 #三阶倒立摆 #Webots #LQR #拉格朗日方程 #动力学建模 #C语言 #MATLAB #控制算法 最近捣鼓了下三级倒立摆的LQR控制,用Webots结合C语言做了仿真,过程还挺有意思,来跟大家分享分享。 一、三级倒立摆系统简介 三级倒立摆(Triple Inverted Pendul

【前端地图】地理编码与逆地理编码 —— 让地址和坐标不再“鸡同鸭讲”

【前端地图】地理编码与逆地理编码 —— 让地址和坐标不再“鸡同鸭讲”

🌏第 7 节:地理编码与逆地理编码 —— 让地址和坐标不再“鸡同鸭讲” 🎙️ 一、 老曹引言:地址与坐标的“爱恨情仇” 🗣️ 各位同学好,我是老曹。今天咱们来聊第 7 节,地理编码与逆地理编码。说实话,这玩意儿在地图开发里属于“看似简单,实则坑深似海”的类型。你们是不是觉得,不就是把“成都市青羊区”变成一串数字,或者把一串数字变回“成都市青羊区”吗?太天真了!在实际项目中,我见过太多因为坐标系没搞对,导致物流配送员对着地图上的标记点骂娘,明明就在楼下,导航非让他去河里捞船。这节内容,就是为了让你们少挨骂,少加班,把地址和坐标之间的翻译工作做得明明白白。 🤔 很多新人刚上手地图 SDK 的时候,最喜欢干的事就是直接调用 geocoder.getLocation,然后指望它能返回一个精准无比的 coordinate。结果呢?高德的坐标放到百度地图上,偏移了几百米;或者在国内用了

3个步骤搞定Dify工作流Web交互界面开发:从登录表单到状态管理

3个步骤搞定Dify工作流Web交互界面开发:从登录表单到状态管理 【免费下载链接】Awesome-Dify-Workflow分享一些好用的 Dify DSL 工作流程,自用、学习两相宜。 Sharing some Dify workflows. 项目地址: https://gitcode.com/GitHub_Trending/aw/Awesome-Dify-Workflow 在低代码开发领域,Dify工作流为AI应用提供了强大的可视化开发能力,但开发者常面临三大痛点:如何设计直观的用户交互界面?怎样实现安全可靠的用户认证流程?以及如何在不同节点间有效管理用户状态?本文将通过"设计理念→实现步骤→调试技巧"三阶结构,带你用低代码方式构建企业级Web交互界面,重点解决表单交互、用户认证和跨节点状态管理难题。 设计理念:Dify交互界面的核心架构 Dify工作流的Web交互设计基于"节点驱动"架构,将传统前端开发中的页面、组件和逻辑拆分为可配置的节点组合。这种设计理念带来三大优势:无需编写HTML/CSS即可生成界面、通过节点连接实现业务逻辑、