怎么提高服务器的并发处理能力?
(一)什么是服务器并发处理能力?
一台服务器在单位时间里能处理的请求越多,服务器的能力越高,也就是宵云认为的服务器并发处理能力越强
服务器的本质工作就是,争取以最快的速度将内核缓冲区中的用户请求数据一个不剩地都拿出来,然后尽快处理,再将响应数据放到一块又能够与发送数据的缓冲区中,接着处理下一拨请求。
(二)有什么方法衡量服务器并发处理能力?一,吞吐率
量化指标:吞吐率,单位时间里服务器处理的最大请求数,单位req/s
再深入一些,HTTP请求通常是对不同资源的请求,也就是请求不同的URL,有的是请求图片,有的是获取动态内容,有的是静态页面,显然这些请求所花费的时间各不相同,而这些请求再不同时间的组成比例又是不确定的,所以实际情况下的吞吐率是非常复杂的。
正因为这些请求的性质不同,所以服务器并发能力强弱关键在于如何正对不同的请求性质来设计最优并发策略。如一台服务器处理诸多不同性质的请求,在一定程度上使得服务器的性能无法充分发挥。而并发策略的设计就是在服务器同时处理较多请求时,合理协调和充分利用CPU计算和I/O操作,使其在较大并发用户数的情况下提供较高吞吐率。
另外,实际上多少用户同时发来请求并不是服务器所能决定的,一旦实际并发用户数过多,则势必影响站点质量。所以得出最大并发用户数的意义,在于了解服务器的承载能力,并且结合用户规模考虑适当的扩展方案。在考虑用户模型时,用户访问 web站点时通常使用浏览器,浏览器对于同一域名下URL的并发下载是多线程的,不过有最大限制的,所以前面说到的最大并发数,具体到真实的用户,可能不是一对一的关系。而从服务器角度,实际并发用户数的可以理解为服务器当前维护的代表不同用户的文件描述符总数,也就是并发连接数。服务器一般会限制同时服务的最多用户数,比如apache的MaxClents参数。这里再深入一下,对于服务器来说,服务器希望支持高吞吐率,对于用户来说,用户只希望等待最少的时间,显然,双方不能满足,所以双方利益的平衡点,就是我们希望的最大并发用户数。
二,压力测试
有一个原理一定要先搞清楚,假如100个用户同时向服务器分别进行10个请求,与1个用户向服务器连续进行1000次请求,对服务器的压力是一样吗?实际上是不一样的,因对每一个用户,连续发送请求实际上是指发送一个请求并接收到响应数据后再发送下一个请求。这样对于1个用户向服务器连续进行1000次请求, 任何时刻服务器的网卡接收缓冲区中只有1个请求,而对于100个用户同时向服务器分别进行10个请求,服务器的网卡接收缓冲区最多有100个等待处理的请求,显然这时的服务器压力更大。
压力测试前提考虑的条件:(1) 并发用户数(2) 总请求数(3) 请求资源描述
并发用户数是指某一时刻同时向服务器发送请求的用户总数。
压力测试中关系的时间有细分以下2种,(1) 用户平均请求等待时间(这里暂不把数据在网络的传输时间,还有用户PC本地的计算时间计算入内)(2) 服务器平均请求处理时间
用户平均请求等待时间主要用于衡量服务器在一定并发用户数下,单个用户的服务质量;而服务器平均请求处理时间就是吞吐率的倒数,一般来说,用户平均请求等待时间=服务器平均请求处理时间*并发用户数
(三)怎么提高服务器的并发处理能力呢?一,提高CPU并发计算能力
服务器之所以可以同时处理多个请求,在于操作系统通过多执行流体系设计使得多个任务可以轮流使用系统资源,这些资源包括CPU,内存以及I/O. 这里的I/O主要指磁盘I/O, 和网络I/O
(1)多进程&多线程
多执行流的一般实现就是进程。多进程的好处不仅在于CPU时间的轮流使用,还在于对CPU计算和I/O操作进行很好的重叠利用,这里的I/O主要指磁盘I/O和网络I/O. 实际上,大多数进程的时间主要消耗在I/O操作上,现代计算机的DMA技术可以让CPU不参与I/O操作的全过程,比如进程通过系统调用,使得CPU向网卡或者磁盘等I/O设备发出指令,然后进程被挂起,释放出CPU资源,等待I/O设备完成工作后通过中断来通知进程重新就绪。对于单任务而言,CPU大部分时间空闲,这时候多进程的作用尤为重要。
而且进程的优越性还在其相互独立带来的稳定性和健壮性方面。
进程的缺点: 每个进程都有自己的独立空间和生命周期。当子进程被父进程创建后,便将父进程地址空间的所有数据复制到自己的地址空间中,完全继承父进程的上下文信息。进程的创建使用fork()系统调用,还是有一定的开销的,这个开销若太频繁,其可能成为影响性能的主要因素。