我把node.js服务器放在一台机器上,mongodb服务器放在另一台机器上。请求中70%是读,30%是写。可以观察到,每秒100个请求时的吞吐量为60req/sec,每秒200个请求时的吞吐量为130 req/sec。两种情况下的CPU和内存使用情况相同。如果应用程序可以服务130 req/sec,那么为什么它不能在第一种情况下服务100req/sec,因为cpu和内存利用率是相同的。机器正在使用ubuntu server 14.04
在Jmeter中创建用户线程并永远使用循环300秒,然后获取值