基于吞吐量=(请求数)/(总时间),我得到了两个不同的吞吐量数字



请查看JMeter运行的输出:

TestA   20  0   0.00%   45423.30    26988   62228   60189.40    62130.85    62228.00    0.24    1.21    3.07
TestB   20  0   0.00%   245530.50   225405  260410  259775.40   260401.20   260410.00   0.06    0.29    0.51

所有这些都来自同一测试运行(同一时期(,一个吞吐量为0.24,另一个为0.06。JMeter有什么问题吗?

感谢您的投入,

约翰·

我的期望是您使用的是JMeter Reporting Dashboard中的数字,因此我们关注的是:

Label | #Samples| KO| %Errors| Average |Min    |Max    |90%      |95%       |99%      |Throughput | Received |Sent  
TestA | 20      | 0 | 0.00%  | 45423.30| 26988 | 62228 |60189.40 | 62130.85 |62228.00 | 0.24      | 1.21     |  3.07
TestB | 20      | 0 |0.00%   |245530.50| 225405| 260410|259775.40| 260401.20|260410.00| 0.06      |0.29      | 0.51

根据JMeter词汇

吞吐量按请求/时间单位计算。从第一个采样开始到最后一个采样结束计算时间。这包括样本之间的任何间隔,因为它应该表示服务器上的负载。

公式为:Throughput = (number of requests) / (total time).

查看Average列,Test A的平均响应时间为45秒,Test B的平均响应速度为245秒。这意味着Test BTest A6倍,因此吞吐量降低了6倍。

因此,我建议查看服务器端日志、版本控制系统提交、APM工具、评测工具、JMeter-PerfMon插件结果等,以确定Test B的响应时间为什么比Test A差6倍。

最新更新