测试动态 / 测试知识 / Gherkin与AI携手:自动生成Web测试用例实战
Gherkin与AI携手:自动生成Web测试用例实战
2025-10-27 作者:cwb 浏览次数:4

Gherkin是一种领域特定语言(DSL),它允许使用自然语言描述软件行为。这种语言使用一组结构化的关键字,如Feature、Scenario、Given、When、Then等,来编写测试用例。这种语法让非技术人员也能轻松理解测试逻辑,同时可直接映射到自动化测试代码。


LaVagueQA架构解析

LaVagueQA采用自主机器智能架构,包含三个组件:

WorldModel:分析网页状态与目标差异,生成操作指令,采用GPT-4o视觉模型与语义检索技术

ActionEngine:将自然语言指令转换为浏览器操作代码,基于多模态提示工程与代码模板

Driver:执行操作并提供环境感知数据,基于Selenium/Playwright与HTML解析


该工具的创新在于通过世界模型对网页DOM结构和视觉信息进行联合理解,解决传统基于XPath定位的脆弱性问题。当网页结构变化时,系统能自动适配新的元素定位方式,有望将维护成本大幅降低。


环境配置与安装

基础环境部署

LaVagueQA支持Python3.10及以上版本。推荐使用虚拟环境进行安装:


bash

#创建并激活虚拟环境

python-mvenvlavague-env

sourcelavague-env/bin/activate#Linux/Mac

#Windows:lavague-env\Scripts\activate


#安装核心包

pipinstalllavague#默认包含QA模块和Selenium驱动


#可选:安装特定上下文(如使用Gemini模型)

pipinstalllavague.contexts.gemini

国内用户可配置PyPI镜像以加速下载。


配置与验证

在项目根目录创建lavague_config.yml配置文件:


yaml

world_model:

mm_llm:"gpt-4o"#支持gemini-pro-vision/idefics2等模型

embedding_model:"bge-large-zh"#国内推荐使用百度ERNIE

action_engine:

timeout:30#操作执行超时时间

retry_count:2#失败重试次数

retriever:

xpathed_only:false#是否仅检索可交互元素

创建验证脚本以确保环境正确配置:


python

fromlavague.qa.generatorimportTestGenerator

fromlavague.contexts.openaiimportOpenAIContext


#使用OpenAI上下文(需设置环境变量OPENAI_API_KEY)

context=OpenAIContext()

generator=TestGenerator(

context=context,

url="https://www.zmtests.com",

feature_file_path="demo.feature",

full_llm=True,

headless=True

)

print("环境配置验证成功")

实战案例:电商购物车测试

定义Gherkin场景

创建features/amazon_cart.feature文件描述测试场景:


gherkin

Feature:CartManagement


Scenario:Addandremoveproductfromcart

Giventheuserisonthehomepage

Whentheuserclickson"Accepter"toacceptcookies

Andtheuserenters"ZerotoOne"intothesearchbarandpressEnter

Andtheuserclicksonthefirstproductinresults

Andtheuserclicks"Ajouteraupanier"button

Andtheusernavigatestocartpage

Andtheuserclicks"Supprimer"fortheproduct

Thenthecartshouldbeempty

场景设计时需注意:

每个步骤应保持单一操作原则,避免复合动作

使用业务语言而非技术术语(如"点击"而非"触发onClick事件")

结果验证需包含明确的成功指标(如购物车为空)


生成与执行测试

通过CLI命令启动测试生成流程:


bash

lavague-qagenerate\

--url"https://www.zmtests.com"\

--featurefeatures/amazon_cart.feature\

--contextcontexts/openai_context.py\

--full-llm\

--headless

常用参数说明:


--full-llm:启用全LLM模式,生成完整测试逻辑


--headless:无头浏览器模式,适合CI环境


--context:指定自定义模型上下文(如AnthropicClaude)


生成代码分析

工具会自动生成可执行的测试代码,以下为片段示例:


python

importpytest

frompytest_bddimportscenarios,given,when,then

fromseleniumimportwebdriver

fromselenium.webdriver.common.byimportBy

fromselenium.webdriver.support.uiimportWebDriverWait

fromselenium.webdriver.supportimportexpected_conditionsasEC


#常量定义

BASE_URL='https://www.zmtests.com'

scenarios('amazon_cart.feature')


@pytest.fixture

defbrowser():

driver=webdriver.Chrome()

driver.implicitly_wait(10)

yielddriver

driver.quit()


@given('theuserisonthehomepage')

defgo_to_homepage(browser):

browser.get(BASE_URL)

#处理地区弹窗

try:

WebDriverWait(browser,5).until(

EC.element_to_be_clickable((By.ID,'sp-cc-accept'))

).click()

except:

pass#忽略未出现的弹窗


生成代码的特点包括:

自动添加异常处理(如地区弹窗)

使用显式等待替代固定sleep,提升稳定性

兼容pytest-bdd框架,支持scenarios参数化执行


高级应用与优化

自定义断言模板

在prompts.py中修改断言生成模板,可适应特定项目需求:


python

ASSERT_ONLY_PROMPT_TEMPLATE=PromptTemplate("""

生成断言代码时需满足:

1.使用显式等待(WebDriverWait)而非隐式等待

2.优先通过数据属性定位元素(如[data-testid])

3.断言失败时输出当前页面HTML快照

""")


CI/CD集成

在GitHubActions中添加测试生成步骤,实现持续测试:


yaml

jobs:

generate-tests:

runs-on:ubuntu-latest

steps:

-uses:actions/checkout@v4

-name:SetupPython

uses:actions/setup-python@v5

with:

python-version:"3.11"

-name:Installdependencies

run:pipinstalllavague

-name:Generatetests

run:|

lavague-qagenerate\

--url"https://staging.zmtests.com"\

--featurefeatures/checkout.feature\

--headless

-name:Rungeneratedtests

run:pytestgenerated_tests/


LaVagueQA工具通过自然语言驱动的测试生成,为Web测试提供了新的解决方案。它降低了测试脚本编写的技术门槛,使业务人员也能通过Gherkin参与测试设计。同时,它的自适应能力显著减少了UI变化导致的维护工作。随着技术的不断发展,这种基于AI的测试生成方法有望进一步扩展其应用范围,支持更复杂的测试场景。


文章标签: web测试 软件测试用例 自动化测试
热门标签 换一换
软件系统第三方测试 软件系统测试 软件测试标准 工业软件测试 软件应用性能测试 应用性能测试 可用性测试 软件可用性测试 软件可靠性测试 可靠性测试 系统应用测试 软件系统应用测试 软件应用测试 软件负载测试 API自动化测试 软件结题测试 软件结题测试报告 软件登记测试 软件登记测试报告 软件测试中心 第三方软件测试中心 应用测试 第三方应用测试 软件测试需求 软件检测报告定制 软件测试外包公司 第三方软件检测报告厂家 CMA资质 软件产品登记测试 软件产品登记 软件登记 CNAS资质 cma检测范围 cma检测报告 软件评审 软件项目评审 软件项目测试报告书 软件项目验收 软件质量测试报告书 软件项目验收测试 软件验收测试 软件测试机构 软件检验 软件检验检测 WEB应用测试 API接口测试 接口性能测试 第三方系统测试 第三方网站系统测试 数据库系统检测 第三方数据库检测 第三方数据库系统检测 第三方软件评估 课题认证 第三方课题认证 小程序测试 app测试 区块链业务逻辑 智能合约代码安全 区块链 区块链智能合约 软件数据库测试 第三方数据库测试 第三方软件数据库测试 软件第三方测试 软件第三方测试方案 软件测试报告内容 网站测试报告 网站测试总结报告 信息系统测试报告 信息系统评估报告 信息系统测评 语言模型安全 语言模型测试 软件报告书 软件测评报告书 第三方软件测评报告 检测报告厂家 软件检测报告厂家 第三方网站检测 第三方网站测评 第三方网站测试 检测报告 软件检测流程 软件检测报告 第三方软件检测 第三方软件检测机构 第三方检测机构 软件产品确认测试 软件功能性测试 功能性测试 软件崩溃 稳定性测试 API测试 API安全测试 网站测试测评 敏感数据泄露测试 敏感数据泄露 敏感数据泄露测试防护 课题软件交付 科研经费申请 软件网站系统竞赛 竞赛CMA资质补办通道 中学生软件网站系统CMA资质 大学生软件网站系统CMA资质 科研软件课题cma检测报告 科研软件课题cma检测 国家级科研软件CMA检测 科研软件课题 国家级科研软件 web测评 网站测试 网站测评 第三方软件验收公司 第三方软件验收 软件测试选题 软件测试课题是什么 软件测试课题研究报告 软件科研项目测评报告 软件科研项目测评内容 软件科研项目测评 长沙第三方软件测评中心 长沙第三方软件测评公司 长沙第三方软件测评机构 软件科研结项强制清单 软件课题验收 软件申报课题 数据脱敏 数据脱敏传输规范 远程测试实操指南 远程测试 易用性专业测试 软件易用性 政府企业软件采购验收 OA系统CMA软件测评 ERP系统CMA软件测评 CMA检测报告的法律价值 代码原创性 软件著作登记 软件著作权登记 教育APP备案 教育APP 信息化软件项目测评 信息化软件项目 校园软件项目验收标准 智慧软件项目 智慧校园软件项目 CSRF漏洞自动化测试 漏洞自动化测试 CSRF漏洞 反序列化漏洞测试 反序列化漏洞原理 反序列化漏洞 命令执行 命令注入 漏洞检测 文件上传漏洞 身份验证 出具CMA测试报告 cma资质认证 软件验收流程 软件招标文件 软件开发招标 卓码软件测评 WEB安全测试 漏洞挖掘 身份验证漏洞 测评网站并发压力 测评门户网站 Web软件测评 XSS跨站脚本 XSS跨站 C/S软件测评 B/S软件测评 渗透测试 网站安全 网络安全 WEB安全 并发压力测试 常见系统验收单 CRM系统验收 ERP系统验收 OA系统验收 软件项目招投 软件项目 软件投标 软件招标 软件验收 App兼容性测试 CNAS软件检测 CNAS软件检测资质 软件检测 软件检测排名 软件检测机构排名 Web安全测试 Web安全 Web兼容性测试 兼容性测试 web测试 黑盒测试 白盒测试 负载测试 软件易用性测试 软件测试用例 软件性能测试 科技项目验收测试 首版次软件 软件鉴定测试 软件渗透测试 软件安全测试 第三方软件测试报告 软件第三方测试报告 第三方软件测评机构 湖南软件测评公司 软件测评中心 软件第三方测试机构 软件安全测试报告 第三方软件测试公司 第三方软件测试机构 CMA软件测试 CNAS软件测试 第三方软件测试 移动app测试 软件确认测试 软件测评 第三方软件测评 软件测试公司 软件测试报告 跨浏览器测试 软件更新 行业资讯 软件测评机构 大数据测试 测试环境 网站优化 功能测试 APP测试 软件兼容测试 安全测评 第三方测试 测试工具 软件测试 验收测试 系统测试 测试外包 压力测试 测试平台 bug管理 性能测试 测试报告 测试框架 CNAS认可 CMA认证 自动化测试
专业测试,找专业团队,请联系我们!
咨询软件测试 400-607-0568