性能测试常⽤指标:响应时间,吞吐量,TPS,QPS,并发数,点击数,资
源利⽤率,错误率
对于性能测试,以上性能指标必须要有清楚的理解,⾃⼰总结如下:
1. 响应时间(RT)
是指系统对请求作出响应的时间。这个指标与⼈对软件性能的主观感受是⼀致的,因为它完整地记录了整个计算机系统处理请求的时间。由于⼀个系统通常会提供许多功能,⽽不同功能的处理逻辑也千差万别,因⽽不同功能的响应时间也不尽相同,甚⾄同⼀功能在不同输⼊数据的情况下响应时间也不相同。所以,在讨论⼀个系统的响应时间时,⼈们通常是指该系统所有功能的平均时间或者所有功能的最⼤响应时间。当然,往往也需要对每个或每组功能讨论其平均响应时间和最⼤响应时间。
对于单机的没有并发操作的应⽤系统⽽⾔,⼈们普遍认为响应时间是⼀个合理且准确的性能指标。需要指出的是,响应时间的绝对值并不能直接反映软件的性能的⾼低,软件性能的⾼低实际上取决于⽤户对该响应时间的接受程度。对于⼀个游戏软件来说,响应时间⼩于100毫秒应该是不错的,响应时间在1秒左右可能属于勉强可以接受,如果响应时间达到3秒就完全难以接受了。⽽对于编译系统来说,完整编译⼀个较⼤规模软件的源代码可能需要⼏⼗分钟甚⾄更长时间,但这些响应时间对于⽤户来说都是可以接受的。
注意: 在性能测试中, 响应时间要做更细致划分
2. 吞吐量(Throughput)
吞吐量是指系统在单位时间内处理完成的客户端请求的数量, 直接体现软件系统的性能承载能⼒。这是⽬前最常⽤的性能测试指标。对于服务器来讲,吞吐量越⾼越好.吞吐量是⼀个很宽泛的概念, 通常情况下,⽤“请求数/秒”或者“页⾯数/秒”来衡量。
体现:
1. 业务⾓度: 业务数/⼩时或访问⼈数/天等
2. ⽹络流量: 字节数/⼩时或字节数/天等
3. 服务器性能处理能⼒(重点): TPS(每秒事务数) 和 QPS(每秒查询数):
对于⽆并发的应⽤系统⽽⾔,吞吐量与响应时间成严格的反⽐关系,实际上此时吞吐量就是响应时间的倒数。前⾯已经说过,对于单⽤户的系统,响应时间(或者系统响应时间和应⽤延迟时间)可以很好地度量系统的性能,但对于并发系统,通常需要⽤吞吐量作为性能指标。
对于⼀个多⽤户的系统,如果只有⼀个⽤户使⽤时系统的平均响应时间是t,当有你n个⽤户使⽤时,每个⽤户看到的响应时间通常并不是n×t,⽽往往⽐n×t⼩很多(当然,在某些特殊情况下也可能⽐n×t⼤,甚⾄⼤很多)。这是因为处理每个请求需要⽤到很多资源,由于每个请求的处理过程中有许多不⾛难以并发执⾏,这导致在具体的⼀个时间点,所占资源往往并不多。也就是说在处理单个请求时,在每个时间点都可能有许多资源被闲置,当处理多个请求时,如果资源配置合理,每个⽤户看到的平均响应时间并不随⽤户数的增加⽽线性增加。实际上,不同系统的平均响应时间随⽤户数增加⽽增长的速度也不⼤相同,这也是采⽤吞吐量来度量并发系统的性能的主要原因。⼀般⽽⾔,吞吐量是⼀个⽐较通⽤的指标,两个具有不同⽤户数和⽤户使⽤模式的系统,如果其最⼤吞吐量基本⼀致,则可以判断两个系统的处理能⼒基本⼀致。
3. TPS(Transactions Per Second,每秒事务数)
TPS是单位时间内处理事务的数量,从代码⾓度来说,⼀段代码或多段代码可以组成⼀个事务.单位时间
内完成的事务数越多,服务器的性能越好
4.. QPS(Query Per Second,每秒查询数)
QPS是单位时间内处理请求的数量,⽐TPS划分的更细致⼀些,因为⼀个事务可能会包含多个请求. 在⼀个事务当中, 假如只包含⼀个请求, 那么 QPS 就是指该请求过程中, 发起的数据查询总次数. 注意: 在 JMeter 当中, 把 TPS 和 QPS 简单的认为是同⼀个指标, ⽤来考察服务器性能好坏
硬盘性能指标TPS和QPS的区别?
TPS(transaction per second)是单位时间内处理事务的数量,QPS(query per second)是单位时间内请求的数量。TPS代表⼀个事务的处理,可以包含了多次请求。很多公司⽤QPS作为接⼝吞吐量的指标,也有很多公司使⽤TPS作为标准,两者都能表现出系统的吞吐量的⼤⼩,TPS的⼀次事务代表⼀次⽤户操作到服务器返回结果,QPS的⼀次请求代表⼀个接⼝的⼀次请求到服务器返回结果。当⼀次⽤户操作只包含⼀个请求接⼝时,TPS和QPS没有区别。当⽤户的⼀次操作包含了多个服务请求时,这个时候TPS作为这次⽤户操作的性能指标就更具有代表性了。
个⼈理解如下:
1、Tps即每秒处理事务数,包括了
1)⽤户请求服务器
2)服务器⾃⼰的内部处理
3)服务器返回给⽤户
这三个过程,每秒能够完成N个这三个过程,Tps也就是N;
2、Qps基本类似于Tps,但是不同的是,对于⼀个页⾯的⼀次访问,形成⼀个Tps;但⼀次页⾯请求,可能产⽣多次对服务器的请求,服务器对这些请求,就可计⼊“Qps”之中。
例如:访问⼀个页⾯会请求服务器3次,⼀次访问,产⽣⼀个“T”,产⽣3个“Q”
5.并发数
并发测试的⽤户数量, 指系统可以同时承载的正常使⽤系统功能的⽤户的数量。与吞吐量相⽐,并发⽤户数是⼀个更直观但也更笼统的性能指标。实际上,并发⽤户数是⼀个⾮常不准确的指标,因为⽤户不同的使⽤模式会导致不同⽤户在单位时间发出不同数量的请求。⼀⽹站系统为例,假设⽤户只有注册后才能使⽤,但注册⽤户并不是每时每刻都在使⽤该⽹站,因此具体⼀个时刻只有部分注册⽤户同时在线,在线⽤户就在浏览⽹站时会花很多时间阅读⽹站上的信息,因⽽具体⼀个时刻只有部分在线⽤户同时向系统发出请求。这样,对于⽹站系统我们会有三个关于⽤户数的统计数字:注册⽤户数、在线⽤户数和同时发请求⽤户数。由于注册⽤户可能长时间不登陆⽹站,使⽤注册⽤户数作为性能指标会造成很⼤的误差。⽽在线⽤户数和同事发请求⽤户数都可以作为性能指标。相⽐⽽⾔,以在线⽤户作为性能指标更直观些,⽽以同时发请求⽤户数作为性能指标更准确些。
⽤户数概念划分:
1. 并发⽤户数: 同⼀时间内发送请求的⽤户数量(同⼀个请求/⾮同⼀个请求)
2. 在线⽤户数: 某段时间内在系统内的⽤户数量(不是所有在线⽤户都会发送请求)
3. 系统⽤户数: 系统内注册的⽤户数量(存在⼀⼈拥有多个账号的情况)
结论: 系统⽤户数 > 在线⽤户数 > 并发⽤户数
6.点击数HPS (每秒点击次数)
是指发起请求时, 服务端对请求进⾏响应的页⾯资源对应的请求数量.注意:
1. ⽇常操作中, 对页⾯的点击动作不是这⾥说的点击数
2. 该指标只在 Web 项⽬中需要注意
例如,访问百度⾸页
7.资源利⽤率
定义: 系统资源(CPU/内存/磁盘/⽹络)使⽤占⽐(使⽤量/总量*100%)
利⽤率指标:(没有特殊要求情况下)
1. CPU 不超过 75%-85%
2. 内存不超过 80%
3. 硬盘不超过 90%(容量占有率/读写时间⽐)
8.错误率
定义: 错误率指系统在负载情况下,失败交易的概率。
错误率= (失败交易数/交易总数)*100%
注意:
1. ⼤多系统都会要求⽆限接近于 100% 成功率, 因此, 错误率⼀般都⾮常低
2. 相对稳定的系统产⽣的错误率⼜称超时率(由⽹络传输导致的)
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论