可以的,但要分清两件事:生成用例 和 执行并出报告。AI 既能做前者,也能在配合工具/框架时做后者,不过“完全自动从零到一”取决于你们的环境和集成程度。
1) AI 能生成哪些测试用例?
一般都能生成:
- 接口测试:正常/异常场景、边界值、鉴权失败、参数缺失、超时重试等
- UI/端到端(E2E)测试:页面跳转、表单校验、权限控制、错误提示、关键路径回归
- 功能测试用例(偏业务):需求拆解后的步骤、前置条件、预期结果、数据准备
通常 AI 生成的是:
- 测试用例文本(步骤/预期)
- 或者生成更“可执行”的脚本/用例格式(如 Postman/Newman、pytest、Playwright/Selenium 的测试代码等)
2) AI 能执行并输出测试报告吗?
可以执行,但执行一般由“测试框架/工具”完成,AI负责:
- 生成/补全测试脚本
- 帮你把断言写对、定位元素
- 甚至在失败后给出可能原因与修复建议
- 最终由 CI 流程或测试运行器生成报告
常见组合是:
- 接口:Postman + Newman / pytest + requests
- UI/E2E:Playwright / Selenium + pytest
- 报告:pytest 的报告(Allure、HTML)、Jenkins/GitLab CI 的聚合报告等
AI 本身通常不直接“去点你系统”,它需要:
- 你提供可访问的测试环境
- 或把测试脚本接到 CI/CD 里自动运行
3) 从“AI 生成 → 自动执行”的落地方式
常见做法:
- AI 根据接口文档/页面原型/需求生成测试用例或代码
- 你把生成结果保存为可执行脚本(或让 AI 生成到特定格式)
- 在 CI 里触发执行(自动跑)
- 由测试框架自动生成报告(失败截图、日志、接口响应差异等)
- AI 再对失败用例进行分析(可选)
4) 需要你确认的关键点(否则可能“生成了但跑不起来”)
- 你是否有**接口文档(OpenAPI/Swagger)**或样例请求
- 测试环境是否可访问(域名、账号、权限、测试数据)
- UI 是否稳定(元素定位策略、是否有动态渲染)
- 你希望的报告形式(Allure/HTML/Excel/JUnit)
如果你愿意,我可以按你的情况给一个最合适的方案:
你们主要用什么技术栈(接口是 REST/GraphQL?前端是 React/Vue?UI 用 Playwright 还是别的?CI 用 Jenkins 还是 GitLab?)以及你们希望用例输出成“文档格式”还是“自动化脚本”?