自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

百萬(wàn)并發(fā)下的Nginx優(yōu)化,看這一篇就夠了!

開發(fā) 架構(gòu) 開發(fā)工具
本文作者主要分享在 Nginx 性能方面的實(shí)踐經(jīng)驗(yàn),希望能給大家?guī)?lái)一些系統(tǒng)化思考,幫助大家更有效地去做 Nginx。

本文作者主要分享在 Nginx 性能方面的實(shí)踐經(jīng)驗(yàn),希望能給大家?guī)?lái)一些系統(tǒng)化思考,幫助大家更有效地去做 Nginx。

[[249062]]

優(yōu)化方法論

我重點(diǎn)分享如下兩個(gè)問(wèn)題:

  • 保持并發(fā)連接數(shù),怎么樣做到內(nèi)存有效使用。
  • 在高并發(fā)的同時(shí)保持高吞吐量的重要要點(diǎn)。

實(shí)現(xiàn)層面主要是三方面優(yōu)化,主要聚焦在應(yīng)用、框架、內(nèi)核。

硬件限制可能有的同學(xué)也都聽過(guò),把網(wǎng)卡調(diào)到萬(wàn)兆、10G 或者 40G 是最好的,磁盤會(huì)根據(jù)成本的預(yù)算和應(yīng)用場(chǎng)景來(lái)選擇固態(tài)硬盤或者機(jī)械式硬盤,關(guān)注 IOPS 或者 BPS。

CPU 是我們重點(diǎn)看的一個(gè)指標(biāo)。實(shí)際上它是把操作系統(tǒng)的切換代價(jià)換到了進(jìn)程內(nèi)部,所以它從一個(gè)連接器到另外一個(gè)連接器的切換成本非常低,它性能很好,協(xié)程 Openresty 其實(shí)是一樣的。

資源的高效使用,降低內(nèi)存是對(duì)我們?cè)龃蟛l(fā)性有幫助的,減少 RTT、提升容量。

Reuseport 都是圍繞著提升 CPU 的機(jī)核性。還有 Fast Socket,因?yàn)槲抑霸诎⒗镌频臅r(shí)候還做過(guò)阿里云的網(wǎng)絡(luò),所以它能夠帶來(lái)很大的性能提升,但是問(wèn)題也很明顯,就是把內(nèi)核本身的那套東西繞過(guò)去了。

請(qǐng)求的“一生”

下面我首先會(huì)去聊一下怎么看“請(qǐng)求”,了解完這個(gè)以后再去看怎么優(yōu)化就會(huì)很清楚了。

說(shuō)這個(gè)之前必須再說(shuō)一下 Nginx 的模塊結(jié)構(gòu),像 Nginx 以外,任何一個(gè)外部框架都有個(gè)特點(diǎn),如果想形成整個(gè)生態(tài)必須允許第三方的代碼接進(jìn)來(lái),構(gòu)成一個(gè)序列,讓一個(gè)請(qǐng)求挨個(gè)被模塊共同處理。

那 Nginx 也一樣,這些模塊會(huì)串成一個(gè)序列,一個(gè)請(qǐng)求會(huì)被挨個(gè)的處理。在核心模塊里有兩個(gè),分別是 Steam 和 NGX。

請(qǐng)求到來(lái)

一個(gè)連接開始剛剛建立請(qǐng)求到來(lái)的時(shí)候會(huì)發(fā)生什么事情?先是操作系統(tǒng)內(nèi)核中有一個(gè)隊(duì)列,等著我們的進(jìn)程去系統(tǒng)調(diào)用,這時(shí)候因?yàn)橛泻芏喙ぷ鬟M(jìn)程,誰(shuí)會(huì)去調(diào)用呢,這有個(gè)負(fù)載均衡策略。

現(xiàn)在有一個(gè)事件模塊,調(diào)用了 Epoll Wait 這樣的接口,Accept 建立好一個(gè)新連接,這時(shí)會(huì)分配到連接內(nèi)存池,這個(gè)內(nèi)存池不同于所有的內(nèi)存池,它在連接剛創(chuàng)建的時(shí)候會(huì)分配,什么時(shí)候會(huì)釋放呢?

只有這個(gè)連接關(guān)閉的時(shí)候才會(huì)去釋放。接下來(lái)就到了 NGX 模塊,這時(shí)候會(huì)加一個(gè) 60 秒的定時(shí)器。

就是在建立好連接以后 60 秒之內(nèi)沒(méi)有接到客戶端發(fā)來(lái)的請(qǐng)求就自動(dòng)關(guān)閉,如果 60 秒過(guò)來(lái)之后會(huì)去分配內(nèi)存,讀緩沖區(qū)。什么意思呢?

現(xiàn)在操作系統(tǒng)內(nèi)核已經(jīng)收到這個(gè)請(qǐng)求了,但是我的應(yīng)用程序處理不了,因?yàn)闆](méi)有給它讀到用戶態(tài)的內(nèi)存里去,所以這時(shí)候要分配內(nèi)存。

從連接內(nèi)存池這里分配,那要分配多大呢?會(huì)擴(kuò)到 1K。

收到請(qǐng)求

當(dāng)收到請(qǐng)求以后,接收 Url 和 Header,分配請(qǐng)求內(nèi)存池,這時(shí)候 Request Pool Size 是 4K,大家發(fā)現(xiàn)是不是和剛才的有一個(gè) 8 倍的差距,這是因?yàn)槔脩B(tài)的內(nèi)存是非常消耗資源的。

再看為什么會(huì)消耗資源,首先會(huì)用狀態(tài)機(jī)解去形容,所謂狀態(tài)機(jī)解就是把它當(dāng)做一個(gè)序列,一個(gè)支節(jié)一個(gè)支節(jié)往下解,如果發(fā)現(xiàn)換行了那就是請(qǐng)求行解完了。

但如果這個(gè)請(qǐng)求特別長(zhǎng)的時(shí)候,就會(huì)去再分配更大的,剛剛 1K 不夠用了,為什么是 4 乘 8K 呢?

就是因?yàn)楫?dāng) 1K 不夠了不會(huì)一次性分配 32K,而是一次性分配 8K。如果 8K 以后還沒(méi)有解析到剛才的標(biāo)識(shí)符,就會(huì)分配第二個(gè) 8K。

我之前收到的所有東西都不會(huì)釋放,只是放一個(gè)指針,指到 Url 或者指到那個(gè)協(xié)議,標(biāo)識(shí)它有多長(zhǎng)就可以了。

接下來(lái)解決 Header,這個(gè)流程一模一樣的沒(méi)有什么區(qū)別,這時(shí)候還會(huì)有一個(gè)不夠用的情況,當(dāng)我接收完所有的 Header 以后,會(huì)把剛剛的定時(shí)器給移除,移除后接下來(lái)做 11 個(gè)階段的處理。

也就是說(shuō)剛剛所有的外部服務(wù)器都是通過(guò)很多的模塊串成在一起處理一個(gè)請(qǐng)求的。

像剛剛兩頁(yè) PPT 都在說(shuō)藍(lán)色的區(qū)域,那么請(qǐng)求接下來(lái) 11 個(gè)階段是什么意思呢?這個(gè)黃色的、綠色的,還有右邊這個(gè)都是在 11 階段之中。

這 11 個(gè)階段大家也不用記,非常簡(jiǎn)單,只要掌握三個(gè)關(guān)鍵詞就可以。

剛剛讀完 Header 要做處理,所以這時(shí)候第一階段是 Post-Read。接下來(lái)會(huì)有 Rewrite,還有 Access 和 Preaccess。

先看左手邊,當(dāng)我們下載完 Nginx 源碼編以后會(huì)有一個(gè) Referer,所有的第三方數(shù)據(jù)都會(huì)在這里呈現(xiàn)有序排列。

這些序列中并不是簡(jiǎn)單的一個(gè)請(qǐng)求給它再給它,先是分為 11 個(gè)階段,每個(gè)階段之內(nèi)大家是有序一個(gè)個(gè)往后來(lái)的,但在 11 個(gè)階段中是按階段來(lái)的。

我把它分解一下,第一個(gè) Referer 這階段有很多模塊,后面這是有序的。

這個(gè)圖比剛剛的圖多了兩個(gè)關(guān)鍵點(diǎn):

  • 第一到了某一個(gè)模塊可以決定繼續(xù)向這序列后的模塊執(zhí)行,也可以說(shuō)直接跳到下個(gè)階段,但不能說(shuō)跳多個(gè)階段。
  • 第二是生成了向客戶端反映的響應(yīng),這時(shí)候要對(duì)響應(yīng)做些處理,這里是有序的,先做縮略圖再做壓縮,所以它是有嚴(yán)格順序的。

請(qǐng)求的反向代理

請(qǐng)求的反向代理,反向代理這塊是我們 Nginx 的重點(diǎn)應(yīng)用場(chǎng)景,因?yàn)?Nginx 會(huì)考慮一種場(chǎng)景,客戶端走的是公網(wǎng),所以網(wǎng)絡(luò)環(huán)境非常差,網(wǎng)速非常慢。

如果簡(jiǎn)單用一個(gè)緩沖區(qū)從客戶端收一點(diǎn)發(fā)給上游服務(wù)器,那上游服務(wù)器的壓力會(huì)很大,因?yàn)樯嫌畏?wù)器往往它的效率高,所以都是一個(gè)請(qǐng)求被處理完之前不會(huì)再處理下一個(gè)請(qǐng)求。

Nginx 考慮到這個(gè)場(chǎng)景,它會(huì)先把整個(gè)請(qǐng)求全部收完以后,再向上游服務(wù)器建立連接,所以是默認(rèn)第一個(gè)配置,就是 Proxy Request Buffering On,存放包體至文件,默認(rèn) Size 是 8K。

那建立上游連接的時(shí)候會(huì)放 Time Out,60 秒,添加超時(shí)定時(shí)器,也是 60 秒的。

發(fā)出請(qǐng)求(讀取文體包件),如果向上游傳一個(gè)很大的包體的話,那 Sizk 就是 8K。

默認(rèn) Proxy Limit Rate 是打開的,我們會(huì)先把這個(gè)請(qǐng)求全部緩存到端來(lái),所以這時(shí)候有個(gè) 8×8K,如果關(guān)掉的話,也就是從上游發(fā)一點(diǎn)就往下游發(fā)一點(diǎn)。

知道這個(gè)流程以后,再說(shuō)這里的話大家可以感覺到這里的內(nèi)存消耗還是蠻大的。

返回響應(yīng)

返回響應(yīng),這里面其實(shí)內(nèi)容蠻多的,我給大家簡(jiǎn)化一下,還是剛剛官方的那個(gè)包,這也是有順序的從下往上看,如果有大量第三方模塊進(jìn)來(lái)的話,數(shù)量會(huì)非常高。

第一個(gè)關(guān)鍵點(diǎn)是上面的 Header Filter,上面是 Write Filter,下面是 Postpone Filter,這里還有一個(gè) Copy Filter,它又分為兩類,一類是需要處理,一類是不需要處理的。

OpenResty 的指令,第一代碼是在哪里執(zhí)行的,第二個(gè)是 SDK。

應(yīng)用層優(yōu)化

協(xié)議

做應(yīng)用層的優(yōu)化我們會(huì)先看協(xié)議層有沒(méi)有什么優(yōu)化,比如說(shuō)編碼方式、Header 每次都去傳用 Nginx 的架構(gòu),以至于浪費(fèi)了很多的流量。我們可以改善 Http2,有很多這樣的協(xié)議會(huì)大幅度提升它的性能。

當(dāng)然如果你改善 Http2 了,會(huì)帶來(lái)其他的問(wèn)題,比如說(shuō) Http2 必須走這條路線。

這條路線又是一個(gè)很大的話題,它涉及到安全性和性能,是互相沖突的東西。

壓縮

我們希望“商”越大越好,壓縮這里會(huì)有一個(gè)重點(diǎn)提出來(lái)的動(dòng)態(tài)和靜態(tài),比如說(shuō)我們用了拷貝,比如說(shuō)可以從磁盤中直接由內(nèi)核來(lái)發(fā)網(wǎng)卡,但一旦做壓縮的話就不得不先把這個(gè)文件讀到 Nginx,交給后面的極內(nèi)核去做一下處理。

Keepalive 長(zhǎng)連接也是一樣的,它也涉及到很多東西,簡(jiǎn)單來(lái)看這也就是附用連接。

因?yàn)檫B接有一個(gè)慢啟動(dòng)的過(guò)程,一開始它的窗口是比較小,一次可能只傳送很小的 1K 的,但后面可能會(huì)傳送幾十K,所以你每次新建連接它都會(huì)重新開始,這是很慢的。

當(dāng)然這里還涉及到一個(gè)問(wèn)題,因?yàn)?Nginx 內(nèi)核它默認(rèn)打開了一個(gè)連接空閑的時(shí)候,長(zhǎng)連接產(chǎn)生的作用也會(huì)下降。

提高內(nèi)存使用率

剛剛在說(shuō)具體的請(qǐng)求處理過(guò)程中已經(jīng)比較詳細(xì)的把這問(wèn)題說(shuō)清楚了,這里再總結(jié)一下,在我看來(lái)有一個(gè)角度,Nginx 對(duì)下游只是必須要有的這些模塊,Client Header、Buffer Size:1K,上游網(wǎng)絡(luò) Http 包頭和包體。

CPU 通過(guò)緩存去取儲(chǔ)存上東西的時(shí)候,它是一批一批取的,每一批目前是 64 字節(jié),所以默認(rèn)的是 8K。

如果你配了 32 它會(huì)給你上升到 64;如果你配了 65 會(huì)升到 128,因?yàn)樗且粋€(gè)一個(gè)序列化重組的。

所以了解這個(gè)東西以后自己再配的時(shí)候就不會(huì)再犯問(wèn)題。紅黑樹這里用的非常多,因?yàn)槭呛途唧w的模塊相關(guān)。

限速

大部分我們?cè)谧龇止玖骺氐臅r(shí)候,主要在限什么呢?主要限 Nginx 向客戶端發(fā)送響應(yīng)的速度。

這東西非常好用,因?yàn)榭梢院?Nginx 定量連接在一起。這不是限上游發(fā)請(qǐng)求的速度,而是在限從上游接響應(yīng)的速度。

Worker 間負(fù)載均衡

當(dāng)時(shí)我在用 0.6 版本的時(shí)候那時(shí)候都在默認(rèn)用這個(gè),這個(gè)“鎖”它是在用進(jìn)程間同步方式去實(shí)現(xiàn)負(fù)載均衡,這個(gè)負(fù)載均衡怎么實(shí)現(xiàn)呢?

就是保證所有的 Worker 進(jìn)程,同一時(shí)刻只有一個(gè) Worker 進(jìn)程在處理距離,這里就會(huì)有好幾個(gè)問(wèn)題,綠色的框代表它的吞吐量,吞吐量不高,所以會(huì)導(dǎo)致第二個(gè)問(wèn)題 Requests,也是比較長(zhǎng)的,這個(gè)方差就非常的大。

如果把這個(gè)“鎖”關(guān)掉以后,可以看到吞吐量是上升的,方差也在下降,但是它的時(shí)間在上升,為什么會(huì)出現(xiàn)這樣的情況?

因?yàn)闀?huì)導(dǎo)致一個(gè) Worker 可能會(huì)非常忙,它的連接數(shù)已經(jīng)非常高了,但是還有其他的 Worker 進(jìn)程是很閑的。

如果用了 Requests,它會(huì)在內(nèi)核層面上做負(fù)載均衡。這是一個(gè)專用場(chǎng)景,如果在復(fù)雜應(yīng)用場(chǎng)景下開 Requests 和不開是能看到明顯變化的。

超時(shí)

這里我剛剛說(shuō)了好多,它是一個(gè)紅黑樹在實(shí)現(xiàn)的。唯一要說(shuō)的也就是這里,Nginx 現(xiàn)在做四層的反向代理也很成熟了。

像 UTP 協(xié)議是可以做反向代理的,但要把有問(wèn)題的連接迅速踢掉的話,要遵循這個(gè)原則,一個(gè)請(qǐng)求對(duì)一個(gè)響應(yīng)。

緩存

只要想提升性能必須要在緩存上下工夫。比如說(shuō)我以前在阿里云做云盤,云盤緩存的時(shí)候就會(huì)有個(gè)概念叫空間維度緩存,在讀一塊內(nèi)容的時(shí)候可能會(huì)把這內(nèi)容周邊的其他內(nèi)容也讀到緩存中。

大家如果熟悉優(yōu)化的話也會(huì)知道有分支預(yù)測(cè)先把代碼讀到那空間中,這個(gè)用的比較少,基于時(shí)間維度用的比較多了。

減少磁盤 IO

其實(shí)要做的事也非常多,優(yōu)化讀取,Sendfile 零拷貝、內(nèi)存盤、SSD 盤。減少寫入,AIO,磁盤是遠(yuǎn)大于內(nèi)存的,當(dāng)它把你內(nèi)存消化完的時(shí)候還會(huì)退化成一個(gè)調(diào)用。

像 Thread Pool 只用讀文件,當(dāng)退化成這種模式變多線程可以防止它的主進(jìn)程被阻塞住,這時(shí)候官方的博客上說(shuō)是有 9 倍的性能提升。

系統(tǒng)優(yōu)化

提升容量配置

我們建連接的時(shí)候也有,還有些向客戶端發(fā)起連接的時(shí)候會(huì)有一個(gè)端口范圍,還有一些像對(duì)于網(wǎng)卡設(shè)備的。

CPU緩存的親和性

CPU緩存的親和性,這看情況了,現(xiàn)在用 L3 緩存差不多也 20 兆的規(guī)模,CPU 緩存的親和性是一個(gè)非常大的話題,這里就不再展開了。

NUMA 架構(gòu)的 CPU 親和性

把內(nèi)存分成兩部分,一部分是靠近這個(gè)核,一部分靠近那個(gè)核,如果訪問(wèn)本核的話就會(huì)很快,靠近另一邊大概會(huì)耗費(fèi)三倍的損耗。對(duì)于多核 CPU 的使用對(duì)性能提升很大的話就不要在意這個(gè)事情。

網(wǎng)絡(luò)快速容錯(cuò)

因?yàn)?TCP 的連接最麻煩的是在建立連接和關(guān)閉連接,這里有很多參數(shù)都是在調(diào),每個(gè)地方重發(fā),多長(zhǎng)時(shí)間重發(fā),重發(fā)多少次。

這里給大家展示的是快啟動(dòng),有好幾個(gè)概念在里面,第一個(gè)概念在快速啟動(dòng)的時(shí)候是以兩倍的速度。

因?yàn)榫W(wǎng)的帶寬是有限的,當(dāng)你超出網(wǎng)絡(luò)帶寬的時(shí)候其中的網(wǎng)絡(luò)設(shè)備是會(huì)被丟包的,也就是控制量在往下降,那再恢復(fù)就會(huì)比較慢。

TCP 協(xié)議優(yōu)化

TCP 協(xié)議優(yōu)化,本來(lái)可能差不多要四個(gè)來(lái)回才能達(dá)到每次的傳輸在網(wǎng)絡(luò)中有幾十 K,那么提前配好的話用增大初始窗口讓它一開始就達(dá)到最大流量。

提高資源效率

提高資源效率,這一頁(yè)東西就挺多了,比如說(shuō)先從 CPU 看,TCP Defer Accept,如果有這個(gè)的話,實(shí)際上會(huì)犧牲一些即時(shí)性,但帶來(lái)的好處是第一次建立好連接沒(méi)有內(nèi)容過(guò)來(lái)的時(shí)候是不會(huì)激活 Nginx 做切換的。

內(nèi)存在說(shuō)的時(shí)候是系統(tǒng)態(tài)的內(nèi)存,在內(nèi)存大和小的時(shí)候操作系統(tǒng)做了一次優(yōu)化,在壓力模式和非壓力模式下為每一個(gè)連接分配的系統(tǒng)內(nèi)存可以動(dòng)態(tài)調(diào)整。

網(wǎng)絡(luò)設(shè)備的核心只解決一個(gè)問(wèn)題,變單個(gè)處理為批量處理,批量處理后吞吐量一定是會(huì)上升的。

因?yàn)橄牡馁Y源變少了,切換次數(shù)變少了,它們的邏輯是一樣的,就這些邏輯和我一直在說(shuō)的邏輯都是同一個(gè)邏輯,只是應(yīng)用在不同層面會(huì)產(chǎn)生不同的效果。

端口復(fù)用,像 Reals 是很好用的,因?yàn)樗梢园讯丝谟迷谏嫌畏?wù)連接的層面上,沒(méi)有帶來(lái)隱患。

提升多 CPU 使用效率

提升多 CPU 使用效率,上面很多東西都說(shuō)到了,重點(diǎn)就兩個(gè),一是 CPU 綁定,綁定以后緩存更有效。多隊(duì)列網(wǎng)卡,從硬件層面上已經(jīng)能夠做到了。

BDP,帶寬肯定是知道的,帶寬和時(shí)延就決定了帶寬時(shí)延積,那吞吐量等于窗口或者時(shí)延。

內(nèi)存分配速度也是我們關(guān)注的重點(diǎn),當(dāng)并發(fā)量很大的時(shí)候內(nèi)存的分配是比較糟糕的,大家可以看到有很多它的競(jìng)品。

PCRE 的優(yōu)化,這用最新的版本就好。

作者:陶輝

介紹:曾在華為、騰訊公司做底層數(shù)據(jù)相關(guān)的工作,寫過(guò)一本書叫《深入理解 Nginx:模塊開發(fā)與架構(gòu)解析》,目前在杭州智鏈達(dá)作為聯(lián)合創(chuàng)始人擔(dān)任技術(shù)總監(jiān)一職,目前專注于使用互聯(lián)網(wǎng)技術(shù)助力建筑行業(yè)實(shí)現(xiàn)轉(zhuǎn)型升級(jí)。 

 

責(zé)任編輯:武曉燕 來(lái)源: 高效運(yùn)維
相關(guān)推薦

2020-02-18 16:20:03

Redis ANSI C語(yǔ)言日志型

2023-02-10 09:04:27

2022-06-20 09:01:23

Git插件項(xiàng)目

2022-08-01 11:33:09

用戶分析標(biāo)簽策略

2021-04-08 07:37:39

隊(duì)列數(shù)據(jù)結(jié)構(gòu)算法

2023-09-11 08:13:03

分布式跟蹤工具

2020-07-03 08:21:57

Java集合框架

2018-05-22 08:24:50

PythonPyMongoMongoDB

2023-10-17 08:15:28

API前后端分離

2024-09-23 08:00:00

消息隊(duì)列MQ分布式系統(tǒng)

2019-05-14 09:31:16

架構(gòu)整潔軟件編程范式

2020-09-22 17:31:13

運(yùn)維架構(gòu)技術(shù)

2017-03-11 22:19:09

深度學(xué)習(xí)

2022-04-07 10:39:21

反射Java安全

2023-11-18 09:30:42

模型AI

2022-07-06 12:07:06

Python函數(shù)式編程

2019-04-01 10:43:59

Linux問(wèn)題故障

2020-10-21 14:12:02

Single Sign

2022-05-19 08:28:19

索引數(shù)據(jù)庫(kù)

2023-11-06 07:21:13

內(nèi)存結(jié)構(gòu)Jvm
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)