近被内部问了太多关于jetty测试的问题了,所以这里先写一点开头,后续再全面的做一下测试,想说的是测试需要你去关注场景,需要去区分什么是表象和本质。
你的系统是什么系统:(一步一步的做判断)
流入系统 or 流出系统?
流入系统(系统完成请求无外部系统依赖,缓存可以考虑成为非外部依赖)
瓶颈在CPU,带宽,内存(容器连接数,线程数)?
流出系统(系统完成请求有外部系统依赖)
瓶颈在CPU,带宽,内存(容器连接数,线程数) or 第三方系统?
第三方系统:
1、强依赖,无法降级和后备切换
2、弱依赖,可降级跳过或后备可切换。(多个服务提供者提供同样的服务)
模型建立:
1、同样资源情况下处理能力的比较。(不要仅仅去比较线程数,因为你的资源是cpu,memory等等,线程是表象)因此不要简单的认为容器间的平等是设置线程数的平等,不同容器采用的处理模式是不同的,好比不要用NIO和BIO去比较他们的线程数一样。这类测试需要关注同等资源这个标准如何建立(load,memory等),同样的资源下再比较两者的TPS。适用于流入系统来做压力测试。(本身的系统消耗决定了处理能力)
2、模拟不同RT范围的场景,不同容器对于资源的消耗程度。(比如模拟后端系统响应时间的范围,来观察不同容器并发处理能力及稳定性)。适用于流出系统的强依赖模式。
3、通过采用类似于Jetty Continuation或者servlet3的模式来将业务和系统线程池切分开来,加上带有业务性隔离的服务线程池实现服务切换和降级,比较带来的损耗是否可以接受,判断是否换容器。适用于流出系统的弱依赖模式。
总体来说:
1、建立统一的资源消耗模型(用实际的消耗来判断服务器的能力瓶颈)
2、根据依赖系统的响应时间来实际模拟场景判断带来的影响。(连接消耗在某些场景下已经是九牛一毛的case了,优化本身没有太大实际意义)
3、对于系统本身是否有除了性能以外的更多需求,比如系统稳定性要求的服务降级和切换。
4、容器本身的模式可改进点及可维护性(模块化等)。
5、后对于慢请求的支持(内部网络请求往往无法模拟慢请求对java容器的“伤害”,这也是为什么要加一层http代理的目的)
近期做一下测试比较,给出一些结论性的东西,不过希望大家做测试一定要考虑场景和真实的需求,切勿仅仅为了容器测试而作容器测试。(同时把封装的jetty层异步调用+业务性隔离的线程池代码包共享出来)