自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

單服務器高性能模式:PPC與TPC

開發(fā) 前端
Apache服務器的MPM worker模式本質(zhì)上就是一種prethread方案,但進行了改進。Apache首先創(chuàng)建多個進程,每個進程再創(chuàng)建多個線程。這樣做的主要考慮是為了提高穩(wěn)定性,即使某個子進程的某個線程異常退出,仍會有其他子進程繼續(xù)提供服務,不會導致整個服務器崩潰。

高性能是每位程序員的追求。無論我們設計系統(tǒng)還是編寫代碼,都渴望達到最佳性能。但實現(xiàn)高性能是極為復雜的,因為諸如磁盤、操作系統(tǒng)、CPU、內(nèi)存、緩存、網(wǎng)絡、編程語言和架構(gòu)等因素都可能影響系統(tǒng)性能。一個不當?shù)?debug 日志,甚至可能將服務器的性能從每秒處理 30000 個事務降低到 8000 個;一個 tcp_nodelay 參數(shù)的設置,可能將響應時間從 2 毫秒延長到 40 毫秒。因此,實現(xiàn)高性能是一項極具挑戰(zhàn)性的任務。軟件系統(tǒng)開發(fā)的不同階段都會對最終的性能產(chǎn)生影響。

站在架構(gòu)師的角度,特別關注高性能架構(gòu)的設計是至關重要的。高性能架構(gòu)設計主要集中在兩個方面:

  1. 盡量提升單個服務器的性能,將其性能發(fā)揮到極致。
  2. 如果單服務器無法滿足性能需求,則設計服務器集群方案。

除了上述兩點,系統(tǒng)最終能否實現(xiàn)高性能還與具體的實現(xiàn)和編碼有關。但架構(gòu)設計是實現(xiàn)高性能的基礎。如果架構(gòu)設計不能達到高性能要求,那么后續(xù)的實現(xiàn)和編碼優(yōu)化也只能在有限的空間內(nèi)發(fā)揮作用??梢孕蜗蟮卣f,架構(gòu)設計決定了系統(tǒng)性能的上限,而實現(xiàn)細節(jié)則決定了系統(tǒng)性能的下限。

實現(xiàn)單服務器高性能的關鍵之一是選擇合適的并發(fā)模型。并發(fā)模型涉及以下兩個關鍵設計點:

  1. 服務器如何管理連接。
  2. 服務器如何處理請求。

這兩個設計點最終都與操作系統(tǒng)的 I/O 模型和進程模型相關。常見的 I/O 模型包括阻塞、非阻塞、同步和異步;而進程模型可以是單進程、多進程或多線程。

PPC

PPC,即 Process Per Connection,意味著每次有新連接時就會創(chuàng)建一個新的進程來專門處理該連接的請求。這是傳統(tǒng) UNIX 網(wǎng)絡服務器常采用的模型。

圖片圖片

在這種模式下,父進程負責接受連接,并在接受到連接后通過“fork”創(chuàng)建一個子進程來處理連接的讀寫請求。子進程處理完請求后關閉連接。需要注意的是,在“fork”創(chuàng)建子進程后,父進程直接調(diào)用 close,看起來好像是關閉了連接,但實際上只是減少了連接的文件描述符引用計數(shù)。真正的關閉連接是在子進程調(diào)用 close 后,連接的文件描述符引用計數(shù)變?yōu)?0,操作系統(tǒng)才會真正關閉連接。

PPC 模式實現(xiàn)簡單,適用于連接數(shù)不多的情況,比如數(shù)據(jù)庫服務器。在互聯(lián)網(wǎng)興起之前,對于普通的業(yè)務服務器,由于訪問量和并發(fā)量相對較低,這種模式運作良好。世界上第一個 web 服務器 CERN httpd 就采用了這種模式。

然而,隨著互聯(lián)網(wǎng)的發(fā)展,服務器的并發(fā)和訪問量激增,PPC 模式的弊端也顯現(xiàn)出來:

fork 代價高:創(chuàng)建一個進程的代價很高,需要分配大量內(nèi)核資源,將內(nèi)存映像從父進程復制到子進程。即使現(xiàn)在的操作系統(tǒng)采用了 Copy on Write 技術,總體上創(chuàng)建進程的代價仍然較高。

父子進程通信復雜:父進程“fork”子進程后,父子進程之間通信復雜,需要采用 IPC 進程通信方案。例如,子進程需要在關閉連接之前告知父進程處理了多少個請求,以支持父進程進行全局統(tǒng)計。

并發(fā)連接數(shù)量有限:如果每個連接存活時間較長且新連接不斷進來,進程數(shù)量會不斷增加,導致操作系統(tǒng)進程調(diào)度和切換頻繁,系統(tǒng)壓力增大。因此,一般情況下,PPC 方案最多能處理的并發(fā)連接數(shù)量只有幾百個。

TPC

TPC,即 Thread Per Connection,意味著每次有新連接時都會創(chuàng)建一個新線程專門處理該連接的請求。相比進程,線程更輕量級,創(chuàng)建線程的開銷更??;同時,線程共享進程內(nèi)存空間,線程間通信相對簡單。因此,TPC 實際上是解決了或者減輕了 PPC 中 fork 代價高和父子進程通信復雜的問題。

圖片圖片

在TPC模式下,父進程負責接受連接,然后創(chuàng)建子線程來處理連接的讀寫請求,最后子線程關閉連接。與 PPC 不同的是,主進程無需手動關閉連接,因為子線程共享主進程的進程空間,連接的文件描述符沒有被復制,只需一次 close 即可。

盡管TPC解決了 fork 代價高和進程通信復雜的問題,但也帶來了新的挑戰(zhàn):

創(chuàng)建線程雖然比創(chuàng)建進程代價低,但在高并發(fā)情況下(如每秒上萬連接),仍存在性能問題。

雖然無需進程間通信,但線程間的互斥和共享帶來了復雜性,容易導致死鎖問題。

多線程會出現(xiàn)互相影響的情況,某個線程異常可能導致整個進程退出(如內(nèi)存越界)。

除了引入新的問題,TPC 仍然面臨 CPU 線程調(diào)度和切換的代價。因此,在并發(fā)連接幾百個的場景下,更傾向于使用 PPC,因為它沒有死鎖風險,也不會受多進程相互影響,具有更高的穩(wěn)定性。

prethread

TPC模式中,只有在連接進來時才創(chuàng)建新的線程來處理連接請求。盡管創(chuàng)建線程比創(chuàng)建進程更輕量級,但仍然存在一定的代價。為了解決這個問題,出現(xiàn)了prethread模式。

圖片圖片

類似于prefork,prethread模式會預先創(chuàng)建線程,然后開始接受用戶請求。這樣,當新連接進來時,就無需再創(chuàng)建線程,從而提升用戶感知的速度和體驗。

由于多線程之間數(shù)據(jù)共享和通信更方便,prethread的實現(xiàn)方式比prefork更靈活。常見的實現(xiàn)方式包括:

主進程accept連接,然后將連接交給某個線程處理。

多個子線程嘗試accept連接,只有一個線程accept成功。

Apache服務器的MPM worker模式本質(zhì)上就是一種prethread方案,但進行了改進。Apache首先創(chuàng)建多個進程,每個進程再創(chuàng)建多個線程。這樣做的主要考慮是為了提高穩(wěn)定性,即使某個子進程的某個線程異常退出,仍會有其他子進程繼續(xù)提供服務,不會導致整個服務器崩潰。

prethread理論上可以支持比prefork更多的并發(fā)連接。例如,Apache服務器的MPM worker模式默認支持400個并發(fā)處理線程(16個進程 × 25個線程)。

責任編輯:武曉燕 來源: 二進制跳動
相關推薦

2019-07-31 14:36:46

Linux服務器框架

2009-11-17 14:05:57

微軟高性能計算服務器

2021-09-22 16:25:17

服務器戴爾科技集團

2011-04-07 13:39:24

WebHTTP

2014-04-09 10:50:01

Squid架構(gòu)緩存服務器

2009-02-18 12:45:00

2019-01-15 10:54:03

高性能ServerReactor

2017-12-20 14:59:44

服務器

2010-05-07 17:50:31

Unix服務器

2011-03-11 09:51:47

Java NIO

2021-05-28 05:18:08

PHP語言roadrunnner

2012-11-08 09:57:29

低功耗高性能服務器處理器

2012-09-05 09:44:37

IDC高性能服務器HPC

2011-03-30 10:52:07

SQL Server數(shù)服務器

2020-06-02 14:57:06

Linux服務器架構(gòu)

2011-05-11 10:23:50

富士通關鍵業(yè)務服務器

2020-11-10 07:46:09

服務器高并發(fā)高性能

2019-01-08 13:32:38

Nginx服務器IO復用

2019-07-10 15:10:14

高性能服務器架構(gòu)

2021-09-14 10:21:13

CPU高性能服務器
點贊
收藏

51CTO技術棧公眾號