AI写自动化脚本总翻车?80%的人都错在这一步(不是语法)

如果你正在做自动化测试,或者想把AI真正用进项目,这篇内容会帮你少踩80%的坑。

最近在用 AI 写自动化脚本的时候,我踩了一个非常典型的坑:

AI生成的代码语法完全正确,但脚本就是跑不通。

一开始我以为是定位问题、环境问题,甚至怀疑工具链,但反复排查之后才发现——

问题根本不在代码层,而在“业务理解”层。


一、AI写脚本最容易错的,其实不是语法

很多人会有一个误区:

AI写代码最大的问题是“写错语法”或者“API用错”

但实际用下来,你会发现:

  • 语法错误:AI基本不会犯(尤其是主流语言)
  • API调用:大多数也能写对
  • 逻辑结构:也大差不差

真正的问题是:它“理解错了你要做什么”

举几个典型场景:

1. 元素操作顺序错

你让AI写“登录流程”,它可能会:

  • 先点登录按钮
  • 再输入账号密码

代码没错,但流程是反的。


2. 页面状态理解错误

比如:

  • 实际页面需要等待加载
  • 或有弹窗/跳转

AI可能直接操作下一步,导致:

元素找不到 / 点击无效

3. 业务路径理解偏差

你说“提交订单”,AI理解成:

  • 填完表单直接提交

但真实流程可能是:

  • 填写 → 校验 → 确认 → 二次弹窗 → 提交

AI只写了“理想路径”,忽略了“真实路径”。


二、本质原因:AI不理解“上下文状态机”

自动化脚本本质上不是代码问题,而是:

一个基于页面状态变化的流程控制问题

而AI的问题在于:

  • 它只看“当前提示词”
  • 不知道“完整业务上下文”
  • 更不会主动补全“隐含流程”

所以它生成的代码:

 是“静态逻辑”
 而你的业务是“动态状态流转”

这就是错位的根源。


三、一句话总结(核心结论)

不要让AI直接生成完整脚本,而是先拆步骤。

四、稳定可用的方法(实操)

这是我目前验证下来最稳的一套方式:

Step 1:只让AI拆步骤(不要写代码)

提示词示例:

请不要写代码,只拆解以下自动化流程的详细步骤,每一步要包含: 1. 当前页面状态 2. 操作动作 3. 预期结果

输出示例:

  • 打开登录页
  • 输入账号
  • 输入密码
  • 点击登录
  • 等待跳转到首页
  • 校验是否登录成功

 这一步的目标是:让AI先对业务“对齐认知”


Step 2:人工校验步骤(关键)

这一步非常重要:

你需要检查:

  • 有没有漏步骤?
  • 有没有顺序问题?
  • 有没有隐藏流程(弹窗、校验等)?

本质是在做:业务纠偏


Step 3:逐步骤生成代码(而不是一次性生成)

错误做法:

帮我写一个完整登录脚本

正确做法:

根据以下步骤,只生成“输入账号”这一步的代码

逐步生成:

  • 每一步单独生成代码
  • 每一步单独验证

 好处:

  • 出错范围极小
  • 易定位问题
  • 可复用组件

Step 4:引入“自愈逻辑”(进阶)

在每一步中加入:

  • 元素重试
  • 等待机制
  • 兜底逻辑

例如:

  • 找不到元素 → 重试3次
  • 页面未加载 → 显式等待
  • 点击失败 → 再次尝试

这一步才是“工程化能力”,而不是AI能力


五、对比总结(为什么你之前总翻车)

方式结果
直接让AI写完整脚本高概率失败
AI拆步骤 + 人工校验成功率大幅提升
分步骤生成代码稳定可控
加自愈机制可长期维护

六、很多团队做错的点

目前看到大多数团队的问题是:

  • 把AI当“代码生成器”
  • 而不是“流程辅助工具”

结果就是:

一上来就让AI写完整脚本 → 然后疯狂debug

但其实正确姿势是:

让AI先参与“理解问题”,再参与“写代码”

七、结尾

这只是AI测试里最基础的一层能力。

后面我会继续拆:

  • AI如何做用例补全
  • AI如何做回归影响面分析
  • AI如何做自动化“自愈体系”

如果你也在做AI测试落地,这一套方法可以先跑起来。

Read more

无需任何拓展Copilot接入第三方OpenAI接口教程

禁止搬运,转载需标明本文链接 省流:修改"C:\Users\你的用户名称\.vscode\extensions\github.copilot-chat-0.35.0\package.json"中的"when": "productQualityType != 'stable'"为"when": "productQualityType == 'stable'",即可在copilot添加支持openAI的第三方接口 我在寻找怎么让copilot接入第三方接口的时候,通过别人的贴子(长期有效)接入第三方 OpenAI 兼容模型到 GitHub Copilot-ZEEKLOG博客发现了官方的讨论Add custom OpenAI endpoint configuration

Copilot、Codeium 软件开发领域的代表性工具背后的技术

Copilot、Codeium 软件开发领域的代表性工具背后的技术

早期, Claude、Copilot、Codeium新兴的AI代码助手,模型的温度、切片的效果、检索方式、提示词的约束、AI 回复的约束、最终数据处理;整个环节,任何一个地方都可能造成最终效果不理想。 旨在通过代码生成、代码补全、代码解释和调试等多种功能,帮助开发者减少重复劳动,提高开发效率。尽管Codeium已经取得了显著的成果,但在处理复杂的代码任务、跨文件的修改以及支持定制化库和框架方面仍面临一定的局限性。 2020 年,OpenAI发布的GPT-3模型使AI生成代码的能力得以广泛应用,标志着AI代码助手的转型。2021年,GitHub 推出基于OpenAI Codex的 Copilot,提供实时代码补全和生成能力,提升开发效率,支持跨文件复杂任务。 其痛点,在大规模代码生成、跨文件任务处理以及定制化框架支持方面的局限性仍然限制了其在复杂项目中的应用。 2023年,Claude 3.5等新一代大型语言模型陆续出世,有效提升了自然语言理解与代码生成的能力。这类模型集成了代码生成、调试和文档自动生成等多项功能,能够帮助开发者快速编写高质量代码、优化程序性能并自动修复错误。随着

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具

GLM-4.7-Flash实战教程:基于GLM-4.7-Flash构建本地Copilot工具 1. 为什么需要本地Copilot工具 在日常编程和工作中,我们经常需要代码建议、文档生成、问题解答等AI辅助功能。虽然云端AI服务很方便,但存在网络延迟、隐私安全、使用成本等问题。基于GLM-4.7-Flash构建本地Copilot工具,可以让你: * 完全离线运行:不依赖网络,响应速度极快 * 数据隐私安全:所有对话和代码都在本地处理 * 定制化能力强:可以根据自己的需求调整模型行为 * 成本可控:一次部署,长期使用,无按次付费 GLM-4.7-Flash作为最新的开源大模型,在代码理解和生成方面表现出色,特别适合作为本地编程助手。 2. 环境准备与快速部署 2.1 硬件要求 为了流畅运行GLM-4.7-Flash,建议准备以下硬件环境: * GPU:4张RTX 4090 D显卡(或同等算力) * 内存:至少128GB系统内存 * 存储:至少100GB可用空间(模型文件约59GB)

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)完整训练+推理流程详解(含伪代码,新手友好)

Stable Diffusion(SD)的核心理论基石源自论文《High-Resolution Image Synthesis with Latent Diffusion Models》(LDM),其革命性创新在于将扩散模型从高维像素空间迁移至 VAE 预训练的低维潜空间,在大幅降低训练与推理的计算成本(相比像素级扩散模型节省大量 GPU 资源)的同时,通过跨注意力机制实现文本、布局等多模态条件控制,兼顾了生成质量与灵活性。本文将基于这一核心思想,从数据预处理、模型训练、推理生成到 LoRA 轻量化训练,一步步拆解 SD 的完整技术流程,每个关键环节均搭配伪代码,结合实操场景,理解 SD 的工程实现。 论文地址:https://arxiv.org/pdf/2112.10752 论文代码:https://github.com/CompVis/latent-diffusion