测试动态 / 测试知识 / 都2026年了,入门性能测试还只会用JMeter的录制功能?这篇进阶指南请收好
都2026年了,入门性能测试还只会用JMeter的录制功能?这篇进阶指南请收好
2026-04-28 作者:cwb 浏览次数:11

录制功能确实能帮新手快速入门,真正的性能测试不止把用户操作录下来回放。真正的压测工程师需要面对复杂的业务场景、海量的动态数据和分布式的环境。


一、参数化

录制出来的脚本里,用户名、密码、商品ID都是写死的。如果用同一个账号模拟100个用户并发登录,服务器会返回账号已在别处登录之类的错误,压测结果就失真了。

CSV Data Set Config是参数化最常用的方式。右键点击线程组 → 添加 → 配置元件 → CSV Data Set Config,配置CSV文件途径和变量名,然后在请求中用${变量名}引用数据即可。对于大量、复杂的测试数据,这是最灵活、性能最好的选择,配合线程组内循环可以高效处理批量数据。


参数化四种实现方式:

CSV Data Set Config :大量、批量测试数据(100个不同用户登录)

用户定义的变量:全局常量(服务器IP、端口号、环境域名)

用户参数:少量、固定的测试数据(2-3个特定角色账号)

函数助手:生成随机数据、时间戳、序列号


参数化是测登录-可以在商品浏览、下单等步骤都用参数化数据,让整个测试更贴近真实场景。思路和数据彻底分离,这样一份脚本可以在不同环境(开发、测试、生产)下无缝运行,只需替换配置文件中的数据源即可。



二、关联

录制的脚本里,每个请求的入参都是固定的。但业务中,第二个请求的参数往往来自第一个请求的响应-比如登录后的token、下单前的购物车ID、支付时的订单号。就是关联。

JMeter通过后置处理器来实现关联,常用的有JSON提取器和正则表达式提取器:

JSON提取器(JSON响应第一选择):在需要提取数据的请求上右键 → 添加 → 后置处理器 → JSON提取器。举例接口返回{"data":{"token":"abc123"}},用JSON Path表达式$.data.token提取token存为${myToken},下一个请求直接引用即可。

正则表达式提取器:正则表达式"token":"(.*?)"也能提取同样的token。支持任意格式的响应数据,但写正则表达式需要一些基础。


在调试阶段,添加一个Debug Sampler(调试取样器)来检查提取器是不是配置正确。扩展来看,关联还能跨越线程组传递数据-通过函数助手设置全局变量,再勾选独立运行每个线程组来实现。

三、让脚本长脑子

很多新手写的脚本是一条直线跑下来的,但真实用户行为是分支的、循环的、条件判断的。控制器就是让脚本变聪明点。

If控制器:按条件决定是不是执行某个请求。比如,如果登录成功(获取到了token)才去访问购物车,否则跳过或重试。

ForEach控制器:循环处理一组有规律的数据。比如有一组搜索重点词keywords_1、keywords_2、keywords_3,用ForEach控制器可以逐个取出并发送搜索请求。

While控制器:循环直到满足某个条件才停止。常用于轮询查询订单状态,直到返回支付成功或已取消。

同步定时器:模拟真正的高并发-让一定数量的线程同时发送请求,而不是错峰到达。


思路控制器可以嵌套使用,比如在While循环里套一个If控制器,实现更复杂的业务场景。注意JDK 15+移除了Nashorn JavaScript引擎,__javaScript()函数会失效,建议迁移到__jexl3或__groovy方案。


四、断言

HTTP状态码是200不代表业务就一定正确。比如登录接口返回200,但响应内容是{"code":401,"msg":"密码错误"},这就是典型的假成功。断言就是用来代替你肉眼检查的机制,让程序自动判断预期结果和实际结果是不是一致。


JMeter提供了几种常用断言:

响应断言:检查响应中是不是包含/不包含特定文本,或检查HTTP状态码是不是符合预期。适合任何文本格式的响应。

JSON断言:用JSONPath表达式精确证实响应中的某个字段值。比如设置JSON Path为$.code,期望值为"success"。

不断时间断言:检查请求的响应时间是不是超过设定的阈值,比如要求登录接口必须在500ms内完成。

结果状态处理器:比普通断言更进一步,可以触发动作-401时重试登录、429时等待后重试、5xx时停止线程。


不能将HTTP状态码作为唯一标准,必须对主要业务字段进行深度检查。对于复杂的业务场景,JSON断言比正则表达式更准确、更易维护。


五、分布式压测

一台机器的CPU和内存是有限的。当需要模拟上万甚至数十万的并发用户时,单机根本无法支撑-线程数开多了,JMeter本身就先崩溃了。解决方案是JMeter的分布式测试,架构是一主多从:

Master:分发测试脚本给各Slave,并汇总测试结果

Slave:执行具体测试任务,向目的服务器发送请求


配置步骤:

所有机器安装相同版本的JDK和JMeter

Slave配置:修改jmeter.properties,关闭SSL(测试环境建议):


text

server.rmi.ssl.disable=true

server_port=1099


Master配置:jmeter.properties中添加所有Slave的IP和端口:


text

remote_hosts=192.168.1.101:1099,192.168.1.102:1099


启动Slave:在Slave的bin目录下运行jmeter-server.bat(Windows)或./jmeter-server(Linux)

启动测试:命令行执行jmeter -n -t testplan.jmx -r,GUI方式则选择"远程启动全部"


注意要点:

调度机和执行机分离:Master在分发任务和收集结果时本身就消耗资源,建议单独一台机器做Master

参数文件同步:如果使用了CSV参数化,需要把参数文件拷贝到每台Slave上,且途径保持一致

时间同步:分布式场景建议启用NTP(网络时间协议),避免时间戳跳跃影响分析

网络连通:所有节点之间网络需要低延时、稳定可达


六、用得专业

工具只是手段,真正的压测能力体现在设计上:

全程参考:全链路压测不是点几个按钮就能跑的-需要模拟用户登录→商品浏览→加入购物车→下单→支付的完整流程,处理token传递、防止重复下单、管理不同用户的库存状态一致性。真实的案例中,每个步骤都有前后依赖关系,需要使用JSON提取器处理接口关联。

阶梯式加压的设计:测试应该从低到高逐步增加压力,让系统有适应和缓冲的时间,避免突然施压导致服务雪崩。一般分为预热期(平稳增长)、高峰期(最高压力)、回落期(逐渐降低)三个阶段。

实时监控和问题定位:性能测试不只是记录结果,还要在过程中发现问题。将JMeter和InfluxDB+Grafana集成来实时监控QPS、响应时间、错误率等重点标准,能在压测进行时就直接看到哪个步骤出问题-比如商品详情页数据库查询慢、支付接口第三方调用超时、购物车锁竞争严重等。

性能测试不是一个跑完就结束的任务,而是一个不断的过程。从参数化、关联到分布式部署,都是为了让测试结果更接近真实生产环境,提前发现和解决问题。


文章标签: 性能测试 软件性能测试 软件应用性能测试 接口性能测试
热门标签 换一换
第三方软件国产化测试 第三方信创测试 CNAS软件测评报告 CMA软件测评报告 首版次软件认定 软件结题验收 软件测试报告书 软件质量检测 数据库测试 H5应用测试 软件质检机构 第三方质检机构 第三方权威质检机构 信创测评机构 信息技术应用创新测评机构 信创测试 软件信创测试 软件系统第三方测试 软件系统测试 软件测试标准 工业软件测试 软件应用性能测试 应用性能测试 可用性测试 软件可用性测试 软件可靠性测试 可靠性测试 系统应用测试 软件系统应用测试 软件应用测试 软件负载测试 API自动化测试 软件结题测试 软件结题测试报告 软件登记测试 软件登记测试报告 软件测试中心 第三方软件测试中心 应用测试 第三方应用测试 软件测试需求 软件检测报告定制 软件测试外包公司 第三方软件检测报告厂家 CMA资质 软件产品登记测试 软件产品登记 软件登记 CNAS资质 cma检测范围 cma检测报告 软件评审 软件项目评审 软件项目测试报告书 软件项目验收 软件质量测试报告书 软件项目验收测试 软件验收测试 软件测试机构 软件检验 软件检验检测 WEB应用测试 API接口测试 接口性能测试 第三方系统测试 第三方网站系统测试 数据库系统检测 第三方数据库检测 第三方数据库系统检测 第三方软件评估 课题认证 第三方课题认证 小程序测试 app测试 区块链业务逻辑 智能合约代码安全 区块链 区块链智能合约 软件数据库测试 第三方数据库测试 第三方软件数据库测试 软件第三方测试 软件第三方测试方案 软件测试报告内容 网站测试报告 网站测试总结报告 信息系统测试报告 信息系统评估报告 信息系统测评 语言模型安全 语言模型测试 软件报告书 软件测评报告书 第三方软件测评报告 检测报告厂家 软件检测报告厂家 第三方网站检测 第三方网站测评 第三方网站测试 检测报告 软件检测流程 软件检测报告 第三方软件检测 第三方软件检测机构 第三方检测机构 软件产品确认测试 软件功能性测试 功能性测试 软件崩溃 稳定性测试 API测试 API安全测试 网站测试测评 敏感数据泄露测试 敏感数据泄露 敏感数据泄露测试防护 课题软件交付 科研经费申请 软件网站系统竞赛 竞赛CMA资质补办通道 中学生软件网站系统CMA资质 大学生软件网站系统CMA资质 科研软件课题cma检测报告 科研软件课题cma检测 国家级科研软件CMA检测 科研软件课题 国家级科研软件 web测评 网站测试 网站测评 第三方软件验收公司 第三方软件验收 软件测试选题 软件测试课题是什么 软件测试课题研究报告 软件科研项目测评报告 软件科研项目测评内容 软件科研项目测评 长沙第三方软件测评中心 长沙第三方软件测评公司 长沙第三方软件测评机构 软件科研结项强制清单 软件课题验收 软件申报课题 数据脱敏 数据脱敏传输规范 远程测试实操指南 远程测试 易用性专业测试 软件易用性 政府企业软件采购验收 OA系统CMA软件测评 ERP系统CMA软件测评 CMA检测报告的法律价值 代码原创性 软件著作登记 软件著作权登记 教育APP备案 教育APP 信息化软件项目测评 信息化软件项目 校园软件项目验收标准 智慧软件项目 智慧校园软件项目 CSRF漏洞自动化测试 漏洞自动化测试 CSRF漏洞 反序列化漏洞测试 反序列化漏洞原理 反序列化漏洞 命令执行 命令注入 漏洞检测 文件上传漏洞 身份验证 出具CMA测试报告 cma资质认证 软件验收流程 软件招标文件 软件开发招标 卓码软件测评 WEB安全测试 漏洞挖掘 身份验证漏洞 测评网站并发压力 测评门户网站 Web软件测评 XSS跨站脚本 XSS跨站 C/S软件测评 B/S软件测评 渗透测试 网站安全 网络安全 WEB安全 并发压力测试 常见系统验收单 CRM系统验收 ERP系统验收 OA系统验收 软件项目招投 软件项目 软件投标 软件招标 软件验收 App兼容性测试 CNAS软件检测 CNAS软件检测资质 软件检测 软件检测排名 软件检测机构排名 Web安全测试 Web安全 Web兼容性测试 兼容性测试 web测试 黑盒测试 白盒测试 负载测试 软件易用性测试 软件测试用例 软件性能测试 科技项目验收测试 首版次软件 软件鉴定测试 软件渗透测试 软件安全测试 第三方软件测试报告 软件第三方测试报告 第三方软件测评机构 湖南软件测评公司 软件测评中心 软件第三方测试机构 软件安全测试报告 第三方软件测试公司 第三方软件测试机构 CMA软件测试 CNAS软件测试 第三方软件测试 移动app测试 软件确认测试 软件测评 第三方软件测评 软件测试公司 软件测试报告 跨浏览器测试 软件更新 行业资讯 软件测评机构 大数据测试 测试环境 网站优化 功能测试 APP测试 软件兼容测试 安全测评 第三方测试 测试工具 软件测试 验收测试 系统测试 测试外包 压力测试 测试平台 bug管理 性能测试 测试报告 测试框架 CNAS认可 CMA认证 自动化测试
专业测试,找专业团队,请联系我们!
咨询软件测试 400-607-0568