我们上面说过,Prefork模式有着先天的缺陷。针对http这种大量短请求的应用(当然,http1.1以来,有不少客户端使用了长连接),Prefork的最高并发很让人不满。并且,无论是否高并发,Prefork的性能都非常不好。现在我们介绍一下Thread模式。
和Prefork非常类似,每Thread模式通过新建的线程来控制对象的传输。和Prefork模式不同的是,一个用户能够建立多少个线程并没有限制。在系统上似乎有限制,65535个,但是同样,文件句柄最高也就能打开65535个,因此通常而言一个服务器最高也就能顶50000并发,无法再高了(nginx就能够支撑5W并发,再高要使用一些特殊手法来均衡负载)。而且线程的建立和销毁的开销非常小——没有独立的空间,不用复制句柄,只要复制一份栈和上下文对象就可以。但是,由于所有线程运行在同一个进程空间中,因此每线程模式有几个非常麻烦的瓶颈。
首先是对象锁定和同步,在每进程模式中,由于进程空间独立,因此一个对象被两个进程使用的时候,他们使用了两个完全不同的对象。而线程模式下,他们访问的是同一个对象。如果两个线程需要进行排他性访问,就必须使用锁,或者其他线程同步工具来进行线程同步。其次,由于使用同一个进程空间,因此一旦有一个连接处理的时候发生错误,整个程序就会崩溃。对于这一问题,可以通过watchdog方式来进行部分规避。原理是通过一个父进程启动子进程,子进程使用每线程处理请求。如果子进程崩溃,父进程的wait就会返回结果。此时父进程重启子进程。使用了watchdog后,服务不会中断,但是程序崩溃时正在处理的连接会全部丢失。最后,是python特有的问题——GIL。由于GIL的存在,因此无论多少线程,实际上只有一个线程可以处理请求,这无形中降低了效率。下面我们看一下Thread模式的测试结果:
测试指令: ab -n 1000 -c 100 http://localhost:8000/py-web-server
返回结果:
Document Path: /py-web-server
Document Length: 1682 bytes
Concurrency Level: 100
Time taken for tests: 3.834 seconds
Complete requests: 1000
Failed requests: 0
Write errors: 0
Total transferred: 1723000 bytes
HTML transferred: 1682000 bytes
Requests per second: 260.85 [#/sec] (mean)
Time per request: 383.362 [ms] (mean)
Time per request: 3.834 [ms] (mean, across all concurrent requests)
Transfer rate: 438.91 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 75 468.4 0 3001
Processing: 2 32 84.0 20 1593
Waiting: 1 30 84.0 18 1592
Total: 2 107 511.0 20 3828
测试指令: ab -n 10000 -c 1000 http://localhost:8000/py-web-server
返回结果:
Document Path: /py-web-server
Document Length: 1682 bytes
Concurrency Level: 1000
Time taken for tests: 37.510 seconds
Complete requests: 10000
Failed requests: 0
Write errors: 0
Total transferred: 17231723 bytes
HTML transferred: 16821682 bytes
Requests per second: 266.60 [#/sec] (mean)
Time per request: 3751.004 [ms] (mean)
Time per request: 3.751 [ms] (mean, across all concurrent requests)
Transfer rate: 448.62 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 695 2422.8 0 21004
Processing: 0 67 341.1 28 9855
Waiting: 0 64 340.5 26 9855
Total: 0 762 2516.6 29 30856
根据结果可以看到,Thread模式在1000并发的时候还工作良好,每秒处理请求数在250-300req/sec,但是每个请求的总处理时间已经高达760ms。并且从中我们可以看出,大量的时间都是消耗在等待上,说明线程的建立逐渐成为问题(为什么?下面说明)。实际性能测试的结果,也表明大约一半的时间花费在了等待上,而另一半花费在了线程建立上。加上销毁的开销,整个系统主要的瓶颈在于由于大量线程建立和销毁造成的CPU开销上。
结合上述情况,我们同时也想到一些问题,Thread模式在一个进程中,到底能创建多少个线程?上文上说大约是5W个,其实太理论了。实际上如果按照Windows来计算,最高不超过1000个,Linux下也在这个数量级上。为什么?由于进程内存空间的问题。一个线程在创建时,默认需要1M的内存空间来作为栈。对于专用的高速系统,我们建议将这个值调整到500K,一般一个session的内存消耗就在500K上下,考虑还有堆消耗,500K是一个比较安全的值。单一进程,32位访问的寻址空间是4G,然而系统需要使用其中的2G作为系统空间——这一状态可以经由启动时的3G参数调整(针对Windows)。然而由于使用了系统空间,因此系统中很多表项空间不足,对稳定性也有不利影响,通常我们建议不要进行这种“优化”。而系统的基础使用和库使用需要数百M的空间,安全起见,能够自由的用于栈的可分配自由空间只有1G的大小。这1G的空间,以创建1M的栈计算,只能同时开1000线程。这就是单一进程中线程的极限。
实际上,是根本做不出这么多的线程的。贝壳的小型测试机上只观测到过10-20个线程/每进程。这是由于线程的建立也需要时间,在创建下一个线程之前,工作进程已经跑了一些了。创建几个工作线程后,第一个工作线程已经完成工作。因此我们在实际中看到的是,压力越高,连接建立的速度越慢。因为负责创立新线程的线程获得越少的CPU时间用于工作。为了增加处理速度,通常我们可以采取一个CPU建立一个进程的策略,这被称为多线程/多进程模式。下面我们来测量其工作效率:
测试指令: ab -n 10000 -c 1000 http://localhost:8000/
返回结果:
Document Path: /
Document Length: 3318 bytes
Concurrency Level: 1000
Time taken for tests: 20.319 seconds
Complete requests: 10000
Failed requests: 0
Write errors: 0
Total transferred: 33590000 bytes
HTML transferred: 33180000 bytes
Requests per second: 492.14 [#/sec] (mean)
Time per request: 2031.939 [ms] (mean)
Time per request: 2.032 [ms] (mean, across all concurrent requests)
Transfer rate: 1614.36 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 160 912.4 0 9008
Processing: 0 28 174.7 12 4738
Waiting: 0 27 174.3 12 4738
Total: 0 188 987.5 13 12758
这是台双核的机器,性能差不多提升了一倍,这就是多进程/多线程模式的威力。按照这个数据外推,在常见的8核处理器上,将达到2000req/sec的处理速度,甚至更高。
当然,也不用高兴太早,我们看一下apache2的每线程模式:
测试指令: ab -n 10000 -c 1000 http://localhost:8000/
返回结果:
Concurrency Level: 1000
Time taken for tests: 6.147 seconds
Complete requests: 10000
Failed requests: 0
Write errors: 0
Total transferred: 3213925 bytes
HTML transferred: 453375 bytes
Requests per second: 1626.87 [#/sec] (mean)
Time per request: 614.678 [ms] (mean)
Time per request: 0.615 [ms] (mean, across all concurrent requests)
Transfer rate: 510.61 [Kbytes/sec] received
Connection Times (ms)
min mean[+/-sd] median max
Connect: 0 111 398.3 59 3087
Processing: 28 126 99.0 113 1772
Waiting: 10 104 98.7 92 1745
Total: 78 237 423.1 175 3691
Percentage of the requests served within a certain time (ms)
50% 175
66% 188
75% 207
80% 217
90% 235
95% 256
98% 1016
99% 3222
100% 3691 (longest request)
这种效率在8路的CPU上,性能将达到6400req/sec。所以想用python实现真正高效的前端本身就是个错误的逻辑。
没有评论:
发表评论