因为在客户端发request的时候,是不会管服务器的状态的。
下面打个比方,具体数据,不可做任何参考,只是我临时编的。
比如:服务器可以同时每秒处理100次点击,这时,需要调用服务器的一些资源来处理,像:JDBC连接、内存、开socket等等,其他的用户呢?应该都在排队状态,而服务器处理完了前面的用户后,需要一些时间来释放这些被占用的资源,假设为1秒,如果LR采样的时长为2秒,那么服务器处理的用户应该为50次点击/每秒,按这种理想状态,点击率的图应该是比较平稳的。
但是,系统受的压力会随着点击的增加而增加,系统性能也就慢慢的下降,例如释放资源的速度开始变慢、换页开始频繁,那么,后面的点击造成的请求,很有可能需要等待的时间随机变长。但是采样的频率是不变的,所以后面的采样值应该慢慢的变小。
也就是像有些图中所显示的那样:随着场景时间的持续,点击率,吞吐量等图的曲线慢慢的下降。
而出现超时的现象也很好解释了,无非是有些请求,等待的时间太长了。
有些图呢是比较稳定的,曲线平稳,这时可以认为,系统可以承受当前用户量的压力。
而有些场景会出很多超时的错,这就有可能是系统承受不了这种的压力,或者配置上有些问题。
需要综合分析了。
注:本文来自高楼Zee(性能测试专家)