从敏捷到生成式:AIGC如何改变软件测试的全流程

从敏捷到生成式:AIGC如何改变软件测试的全流程
在这里插入图片描述

过去二十年,软件测试经历了两次重要范式变迁。

第一次是 瀑布式测试 → 敏捷测试
第二次是 人工驱动测试 → 自动化测试

而今天,随着生成式人工智能(AIGC)的兴起,软件测试正在经历第三次重大转型:

从“敏捷测试”走向“生成式测试(Generative Testing)”。

这种变化不仅仅是工具升级,而是测试方法论、测试流程和测试角色的全面重构
本文将从工程实践的角度,系统分析 AIGC 如何重塑软件测试全流程,并给出可以落地的技术路径。


一、软件测试范式的三次演进

软件测试的发展基本可以分为三个阶段。

阶段核心特点主要问题
瀑布测试测试在开发后期进行反馈周期长
敏捷测试测试融入开发迭代人工成本高
生成式测试AI参与测试设计与执行方法论正在形成

敏捷测试思想来自
Agile Testing: A Practical Guide for Testers and Agile Teams
以及
Continuous Delivery
提出的持续交付理念。

其核心思想包括:

  • 测试左移(Shift Left)
  • 持续测试(Continuous Testing)
  • 自动化优先

但随着系统复杂度上升,敏捷测试仍然面临三大挑战:

1 测试设计效率低

需求越来越多,但测试人员有限。

2 自动化脚本维护成本高

测试脚本经常随 UI 或接口变化而失效。

3 测试分析能力不足

大量测试数据难以转化为质量洞察。

生成式 AI 的出现,为这些问题提供了新的解决路径。


二、什么是“生成式测试”

所谓 生成式测试(Generative Testing),本质是利用大模型的生成能力,自动完成测试活动中的关键任务:

  • 需求理解
  • 测试设计
  • 测试脚本生成
  • 测试数据生成
  • 测试结果分析

技术基础来自 生成式人工智能(Generative AI)。

生成式 AI 的概念在
Generative AI
中被系统化总结,其核心能力包括:

  • 文本生成
  • 代码生成
  • 结构化信息提取
  • 知识推理

在软件测试领域,这些能力可以直接应用于多个环节。


三、AIGC如何重塑软件测试全流程

我们可以按照软件测试生命周期(STLC)来分析。

传统测试生命周期包括:

1 需求分析
2 测试设计
3 测试实现
4 测试执行
5 测试报告

AIGC几乎可以介入每一个环节。


四、需求分析阶段:AI理解需求

需求分析一直是测试设计的基础。

但现实中需求文档往往存在:

  • 表述模糊
  • 业务规则复杂
  • 隐含逻辑较多

生成式 AI 可以帮助进行 需求语义分析

典型能力包括:

1 提取功能点

例如需求:

用户可以通过手机号注册账户, 并通过短信验证码进行验证。 

AI可以提取:

  • 注册功能
  • 手机号校验
  • 验证码验证
  • 账户创建

2 识别测试场景

AI可生成测试场景:

  • 正常注册
  • 错误验证码
  • 手机号格式错误
  • 验证码过期

3 识别需求风险

例如:

  • 是否限制验证码发送频率
  • 是否存在暴力注册风险

这类需求分析任务非常适合大模型。


五、测试设计阶段:AI生成测试用例

测试设计是测试工作中最耗时的环节之一。

AIGC可以自动完成以下工作:

1 等价类划分

例如输入:

年龄:0-120 

AI可以自动生成:

类型测试值
有效值18
边界值0,120
无效值-1,121

2 边界值测试

AI可以识别:

  • 最小值
  • 最大值
  • 边界附近值

3 组合测试设计

在复杂系统中,参数组合会指数级增长。

传统方法通常使用
PICT
进行组合测试生成。

AI可以结合业务语义自动生成组合测试场景,例如:

支付系统组合测试:

支付方式设备网络
微信iOS4G
支付宝AndroidWiFi
银行卡Web5G

六、测试实现阶段:AI生成自动化脚本

自动化脚本开发通常需要较强编程能力。

生成式 AI 在代码生成方面已经取得显著进展,例如:

GitHub Copilot

Codeium。

在测试领域,可以自动生成:

1 API测试脚本

示例:

import requests deftest_create_user(): url="https://api.test.com/user" data={"name":"test","age":18} r=requests.post(url,json=data)assert r.status_code==200

2 UI自动化脚本

示例(Selenium):

from selenium import webdriver driver = webdriver.Chrome() driver.get("https://test.com/login") driver.find_element("id","username").send_keys("test") driver.find_element("id","password").send_keys("123456") driver.find_element("id","login").click()

七、测试执行阶段:AI生成测试数据

测试数据生成是自动化测试的重要环节。

AI可以生成:

  • 随机测试数据
  • 边界测试数据
  • 异常测试数据
  • 脱敏数据

例如金融系统测试:

生成1000条模拟交易数据: 金额范围:1-10000 币种:USD / CNY 

AI可以快速生成符合业务规则的数据集。


八、测试分析阶段:AI分析测试结果

测试执行后通常会产生大量数据:

  • 自动化测试日志
  • 错误日志
  • 缺陷报告

AI可以自动完成:

1 测试日志聚类

识别相同类型错误。

2 Bug分类

自动判断:

  • UI问题
  • API问题
  • 性能问题

3 生成测试报告

例如自动生成:

  • 测试执行统计
  • 缺陷趋势分析
  • 发布风险评估

#九、未来的软件测试形态

随着 AIGC 技术成熟,软件测试将出现几个明显趋势。


1 测试工程师角色升级

执行测试

转变为

设计测试策略


2 自动化测试比例提升

未来很多测试脚本将由 AI 自动生成。


3 测试系统智能化

未来测试平台将具备:

  • 自动生成测试
  • 自动执行测试
  • 自动分析质量

结语

软件测试的核心使命从未改变:

降低软件质量风险。

但实现这一目标的方法正在发生巨大变化。

敏捷测试解决了 开发与测试协作问题
自动化测试解决了 效率问题

而 AIGC 正在解决第三个关键问题:

测试智能化。

当 AI 可以理解需求、设计测试、生成脚本、分析结果时,软件测试将从一种“人工密集型工作”转变为一种智能化工程活动

这不仅会改变测试流程,也会重新定义测试工程师的价值。

未来的软件测试团队,将不再只是“写用例的人”,而是管理软件质量智能系统的人

Read more

用ms-swift做AI绘画理解?多模态微调就这么简单

用ms-swift做AI绘画理解?多模态微调就这么简单 你有没有试过让大模型看懂一张画?不是简单识别“这是猫”,而是真正理解画面里光影的流动、构图的张力、风格的情绪表达——甚至能根据描述精准修改细节。过去这需要复杂的视觉编码器+语言解码器联合训练,调参像在迷宫里找出口。但现在,用ms-swift,一个多模态微调框架,你可能只需要一条命令、一个数据集、不到一小时,就能让Qwen2.5-VL这样的模型学会“看画说话”。 这不是概念演示,而是真实可复现的工程实践。本文不讲抽象架构,不堆技术参数,就带你从零开始,用最贴近实际工作流的方式,完成一次完整的AI绘画理解能力微调:准备数据、启动训练、验证效果、部署推理。全程聚焦“怎么做”,所有操作都在单卡3090上实测通过,代码可直接复制运行。 1. 为什么是ms-swift?它到底解决了什么痛点 在动手之前,先说清楚:为什么不用HuggingFace Transformers自己搭?为什么不用Llama-Factory?ms-swift的不可替代性,藏在三个被多数教程忽略的现实细节里。 1.1 多模态数据格式,从来不是“

【AIGC面试面经第七期】旋转位置编码RoPE:从 2D 到 nD 的完美扩展之旅

【AIGC面试面经第七期】旋转位置编码RoPE:从 2D 到 nD 的完美扩展之旅

AIGC面试面经项目: https://github.com/WeThinkIn/AIGC-Interview-Book * 1. 正余弦位置编码也有外推、相对距离表达、远程衰减,为什么大模型都用RoPE? * 2. RoPE的base有什么作用、在控制什么? * 3. RoPE为何能从2维扩展到n维? * 4. Qwen中RoPE有GPT-J和GPT-NeoX两种实现,和理论不同,二者等价吗? * 5. 长度外推中传统位置编码的OOD问题是什么? * 6. 长度外推中RoPE的OOD问题是什么? * 7. RoPE是绝对位置编码,训练过程中到底在训练什么? * 8. 如何免训练外推RoPE?少量长文本训练如何强化外推? * 9. 从几何+傅里叶角度,n维RoPE整体在做什么、代表什么? * 10. RoPE高低频旋转圈数差异,和训练过程如何联系? 1. 正余弦位置编码也有外推、相对距离表达、远程衰减,为什么大模型都用RoPE? 原生sinusoidal正余弦位置编码公式为: { P E p o s , 2

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

第二章-AIGC入门-小白也能看懂的AI图像生成指南:从原理到实战(5/36)

摘要:AI图像生成是基于深度学习的人工智能技术,能依据文本或图像输入生成新图像。其原理主要基于生成对抗网络(GAN)和变分自编码器(VAE),通过生成器和判别器的对抗训练(在 GAN 中),或编码器和解码器的协作(在 VAE 中),实现图像生成。AI图像生成在艺术创作、商业设计、影视游戏、日常生活等方面有广泛应用,但也面临伦理、版权、技术准确性等挑战。 一、AI 图像生成是什么 AI 图像生成,作为人工智能技术在数字创作领域的重要应用,正深刻地改变着我们生成和理解图像的方式。简单来说,AI 图像生成是利用人工智能算法,依据给定的输入(如文本描述、图像示例等),通过对大量数据的学习和分析,自动生成全新图像的技术。 从原理上讲,AI 图像生成技术建立在深度学习模型的基础之上,其中最为常用的是生成对抗网络(GAN)和变分自编码器(VAE) 。以生成对抗网络为例,它由生成器和判别器两个部分组成。生成器负责生成图像,判别器则用于判断生成的图像是否真实。两者相互对抗、

AI绘画新选择:Janus-Pro-7B一键部署与使用指南

AI绘画新选择:Janus-Pro-7B一键部署与使用指南 1. 为什么Janus-Pro-7B值得你关注 最近AI绘画领域又迎来一位实力派选手——Janus-Pro-7B。它不是另一个微调版Stable Diffusion,也不是简单套壳的多模态模型,而是DeepSeek团队推出的真正统一架构的多模态理解与生成模型。它的特别之处在于:既能看懂图片,又能根据文字画出高质量图像,且两者共享同一套核心逻辑。 很多用户反馈,用传统文生图模型时,经常遇到“提示词写得再细,画面也跑偏”的问题;而用图文理解模型时,又发现它只能回答“这是什么”,却无法进一步生成新内容。Janus-Pro-7B恰恰解决了这个割裂——它把视觉理解和图像生成放在同一个框架里协同优化,不是拼凑,而是融合。 更实际的好处是:你不需要分别部署两个模型、切换两套界面、学习两套操作逻辑。一个模型,两种能力,一次部署,即刻可用。尤其适合想快速验证创意、做轻量级内容生产的个人开发者、设计师和内容创作者。 它不追求参数堆砌,7B规模在本地或云上都能流畅运行;也不依赖复杂工作流,没有ComfyUI节点连线的门槛,打开就能用。如