自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

從頭捋了一遍Epoll原理,收獲頗豐!

系統(tǒng) Linux 開發(fā)工具
Epoll 是個很老的知識點,是后端工程師的經(jīng)典必修課。這種知識具備的特點就是研究的人多,所以研究的趨勢就會越來越深。當然分享的人也多,由于分享者水平參差不齊,也產(chǎn)生的大量錯誤理解。

 Epoll 是個很老的知識點,是后端工程師的經(jīng)典必修課。這種知識具備的特點就是研究的人多,所以研究的趨勢就會越來越深。當然分享的人也多,由于分享者水平參差不齊,也產(chǎn)生的大量錯誤理解。

[[386789]]

圖片來自 Pexels 

今天我再次分享 epoll,肯定不會列個表格,對比一下差異,那就太無聊了。

我將從線程阻塞的原理,中斷優(yōu)化,網(wǎng)卡處理數(shù)據(jù)過程出發(fā),深入的介紹 epoll 背后的原理,最后還會 diss 一些流行的觀點。相信無論你是否已經(jīng)熟悉 epoll,本文都會對你有價值。

正文開始前,先問大家?guī)讉€問題:

①epoll 性能到底有多高。很多文章介紹 epoll 可以輕松處理幾十萬個連接。而傳統(tǒng) IO 只能處理幾百個連接,是不是說 epoll 的性能就是傳統(tǒng) IO 的千倍呢?

②很多文章把網(wǎng)絡(luò) IO 劃分為阻塞,非阻塞,同步,異步。并表示:非阻塞的性能比阻塞性能好,異步的性能比同步性能好。

如果說阻塞導(dǎo)致性能低,那傳統(tǒng) IO 為什么要阻塞呢?epoll 是否需要阻塞呢?Java 的 NIO 和 AIO 底層都是 epoll 實現(xiàn)的,這又怎么理解同步和異步的區(qū)別?

③都是 IO 多路復(fù)用。既生瑜何生亮,為什么會有 select,poll 和 epoll 呢?為什么 epoll 比 select 性能高?

PS:本文共包含三大部分:初識 epoll、epoll 背后的原理 、Diss 環(huán)節(jié)。本文的重點是介紹原理,建議讀者的關(guān)注點盡量放在:“為什么”。

Linux 下進程和線程的區(qū)別其實并不大,尤其是在討論原理和性能問題時,因此本文中“進程”和“線程”兩個詞是混用的。

初識 epoll

epoll 是 Linux 內(nèi)核的可擴展 I/O 事件通知機制,其最大的特點就是性能優(yōu)異。

下圖是 libevent(一個知名的異步事件處理軟件庫)對 select,poll,epoll ,kqueue 這幾個 I/O 多路復(fù)用技術(shù)做的性能測試。

 

很多文章在描述 epoll 性能時都引用了這個基準測試,但少有文章能夠清晰的解釋這個測試結(jié)果。

這是一個限制了 100 個活躍連接的基準測試,每個連接發(fā)生 1000 次讀寫操作為止??v軸是請求的響應(yīng)時間,橫軸是持有的 socket 句柄數(shù)量。

隨著句柄數(shù)量的增加,epoll 和 kqueue 響應(yīng)時間幾乎無變化,而 poll 和 select 的響應(yīng)時間卻增長了非常多。

可以看出來,epoll 性能是很高的,并且隨著監(jiān)聽的文件描述符的增加,epoll 的優(yōu)勢更加明顯。

不過,這里限制的 100 個連接很重要。epoll 在應(yīng)對大量網(wǎng)絡(luò)連接時,只有活躍連接很少的情況下才能表現(xiàn)的性能優(yōu)異。

換句話說,epoll 在處理大量非活躍的連接時性能才會表現(xiàn)的優(yōu)異。如果15000個 socket 都是活躍的,epoll 和 select 其實差不了太多。

為什么 epoll 的高性能有這樣的局限性?問題好像越來越多了,看來我們需要更深入的研究了。

epoll 背后的原理

阻塞

①為什么阻塞

我們以網(wǎng)卡接收數(shù)據(jù)舉例,回顧一下之前我分享過的網(wǎng)卡接收數(shù)據(jù)的過程。

 

為了方便理解,我盡量簡化技術(shù)細節(jié),可以把接收數(shù)據(jù)的過程分為四步:

  • NIC(網(wǎng)卡)接收到數(shù)據(jù),通過 DMA 方式寫入內(nèi)存(Ring Buffer 和 sk_buff)。
  • NIC 發(fā)出中斷請求(IRQ),告訴內(nèi)核有新的數(shù)據(jù)過來了。
  • Linux 內(nèi)核響應(yīng)中斷,系統(tǒng)切換為內(nèi)核態(tài),處理 Interrupt Handler,從RingBuffer 拿出一個 Packet, 并處理協(xié)議棧,填充 Socket 并交給用戶進程。
  • 系統(tǒng)切換為用戶態(tài),用戶進程處理數(shù)據(jù)內(nèi)容。

網(wǎng)卡何時接收到數(shù)據(jù)是依賴發(fā)送方和傳輸路徑的,這個延遲通常都很高,是毫秒(ms)級別的。而應(yīng)用程序處理數(shù)據(jù)是納秒(ns)級別的。

也就是說整個過程中,內(nèi)核態(tài)等待數(shù)據(jù),處理協(xié)議棧是個相對很慢的過程。這么長的時間里,用戶態(tài)的進程是無事可做的,因此用到了“阻塞(掛起)”。

②阻塞不占用 CPU

阻塞是進程調(diào)度的關(guān)鍵一環(huán),指的是進程在等待某事件發(fā)生之前的等待狀態(tài)。

請看下表,在 Linux 中,進程狀態(tài)大致有 7 種(在 include/linux/sched.h 中有更多狀態(tài)):

 

從說明中其實就可以發(fā)現(xiàn),“可運行狀態(tài)”會占用 CPU 資源,另外創(chuàng)建和銷毀進程也需要占用 CPU 資源(內(nèi)核)。重點是,當進程被"阻塞/掛起"時,是不會占用 CPU 資源的。

換個角度來講。為了支持多任務(wù),Linux 實現(xiàn)了進程調(diào)度的功能(CPU 時間片的調(diào)度)。

而這個時間片的切換,只會在“可運行狀態(tài)”的進程間進行。因此“阻塞/掛起”的進程是不占用 CPU 資源的。

另外講個知識點,為了方便時間片的調(diào)度,所有“可運行狀態(tài)”狀態(tài)的進程,會組成一個隊列,就叫“工作隊列”。

③阻塞的恢復(fù)

內(nèi)核當然可以很容易的修改一個進程的狀態(tài),問題是網(wǎng)絡(luò) IO 中,內(nèi)核該修改那個進程的狀態(tài)。

 

socket 結(jié)構(gòu)體,包含了兩個重要數(shù)據(jù):進程 ID 和端口號。進程 ID 存放的就是執(zhí)行 connect,send,read 函數(shù),被掛起的進程。

在 socket 創(chuàng)建之初,端口號就被確定了下來,操作系統(tǒng)會維護一個端口號到 socket 的數(shù)據(jù)結(jié)構(gòu)。

當網(wǎng)卡接收到數(shù)據(jù)時,數(shù)據(jù)中一定會帶著端口號,內(nèi)核就可以找到對應(yīng)的 socket,并從中取得“掛起”進程的 ID。

將進程的狀態(tài)修改為“可運行狀態(tài)”(加入到工作隊列)。此時內(nèi)核代碼執(zhí)行完畢,將控制權(quán)交還給用戶態(tài)。通過正常的“CPU 時間片的調(diào)度”,用戶進程得以處理數(shù)據(jù)。

④進程模型

上面介紹的整個過程,基本就是 BIO(阻塞 IO)的基本原理了。用戶進程都是獨立的處理自己的業(yè)務(wù),這其實是一種符合進程模型的處理方式。

上下文切換的優(yōu)化

上面介紹的過程中,有兩個地方會造成頻繁的上下文切換,效率可能會很低:

  • 如果頻繁的收到數(shù)據(jù)包,NIC 可能頻繁發(fā)出中斷請求(IRQ)。CPU 也許在用戶態(tài),也許在內(nèi)核態(tài),也許還在處理上一條數(shù)據(jù)的協(xié)議棧。但無論如何,CPU 都要盡快的響應(yīng)中斷。這么做實際上非常低效,造成了大量的上下文切換,也可能導(dǎo)致用戶進程長時間無法獲得數(shù)據(jù)。(即使是多核,每次協(xié)議棧都沒有處理完,自然無法交給用戶進程)
  • 每個 Packet 對應(yīng)一個 socket,每個 socket 對應(yīng)一個用戶態(tài)的進程。這些用戶態(tài)進程轉(zhuǎn)為“可運行狀態(tài)”,必然要引起進程間的上下文切換。

①網(wǎng)卡驅(qū)動的 NAPI 機制

在 NIC 上,解決頻繁 IRQ 的技術(shù)叫做 New API(NAPI)。

原理其實特別簡單,把 Interrupt Handler 分為兩部分:

  • 函數(shù)名為 napi_schedule,專門快速響應(yīng) IRQ,只記錄必要信息,并在合適的時機發(fā)出軟中斷 softirq。
  • 函數(shù)名為 netrxaction,在另一個進程中執(zhí)行,專門響應(yīng) napi_schedule 發(fā)出的軟中斷,批量的處理 RingBuffer 中的數(shù)據(jù)。

 

所以使用了 NAPI 的驅(qū)動,接收數(shù)據(jù)過程可以簡化描述為:

  • NIC 接收到數(shù)據(jù),通過 DMA 方式寫入內(nèi)存(Ring Buffer 和 sk_buff)。
  • NIC 發(fā)出中斷請求(IRQ),告訴內(nèi)核有新的數(shù)據(jù)過來了。
  • driver 的 napi_schedule 函數(shù)響應(yīng) IRQ,并在合適的時機發(fā)出軟中斷(NET_RX_SOFTIRQ)。
  • driver 的 net_rx_action 函數(shù)響應(yīng)軟中斷,從 Ring Buffer 中批量拉取收到的數(shù)據(jù)。并處理協(xié)議棧,填充 Socket 并交給用戶進程。
  • 系統(tǒng)切換為用戶態(tài),多個用戶進程切換為“可運行狀態(tài)”,按 CPU 時間片調(diào)度,處理數(shù)據(jù)內(nèi)容。

一句話概括就是:等著收到一批數(shù)據(jù),再一次批量的處理數(shù)據(jù)。

②單線程的 IO 多路復(fù)用

內(nèi)核優(yōu)化“進程間上下文切換”的技術(shù)叫的“IO 多路復(fù)用”,思路和 NAPI 是很接近的。

每個 socket 不再阻塞讀寫它的進程,而是用一個專門的線程,批量的處理用戶態(tài)數(shù)據(jù),這樣就減少了線程間的上下文切換。

 

作為 IO 多路復(fù)用的一個實現(xiàn),select 的原理也很簡單。所有的 socket 統(tǒng)一保存執(zhí)行 select 函數(shù)的(監(jiān)視進程)進程 ID。

任何一個 socket 接收了數(shù)據(jù),都會喚醒“監(jiān)視進程”。內(nèi)核只要告訴“監(jiān)視進程”,那些 socket 已經(jīng)就緒,監(jiān)視進程就可以批量處理了。

IO 多路復(fù)用的進化

①對比 epoll 與 select

select,poll 和 epoll 都是“IO 多路復(fù)用”,那為什么還會有性能差距呢?篇幅限制,這里我們只簡單對比 select 和 epoll 的基本原理差異。

對于內(nèi)核,同時處理的 socket 可能有很多,監(jiān)視進程也可能有多個。所以監(jiān)視進程每次“批量處理數(shù)據(jù)”,都需要告訴內(nèi)核它“關(guān)心的 socket”。

內(nèi)核在喚醒監(jiān)視進程時,就可以把“關(guān)心的 socket”中,就緒的 socket 傳給監(jiān)視進程。

換句話說,在執(zhí)行系統(tǒng)調(diào)用 select 或 epoll_create 時,入?yún)⑹?ldquo;關(guān)心的 socket”,出參是“就緒的 socket”。

而 select 與 epoll 的區(qū)別在于:

select (一次O(n)查找):

  • 每次傳給內(nèi)核一個用戶空間分配的 fd_set 用于表示“關(guān)心的 socket”。其結(jié)構(gòu)(相當于 bitset)限制了只能保存 1024 個 socket。
  • 每次 socket 狀態(tài)變化,內(nèi)核利用 fd_set 查詢 O(1),就能知道監(jiān)視進程是否關(guān)心這個 socket。
  • 內(nèi)核是復(fù)用了 fd_set 作為出參,返還給監(jiān)視進程(所以每次 select 入?yún)⑿枰刂?。

然而監(jiān)視進程必須遍歷一遍 socket 數(shù)組 O(n),才知道哪些 socket 就緒了。

epoll (全是O(1)查找):

  • 每次傳給內(nèi)核一個實例句柄。這個句柄是在內(nèi)核分配的紅黑樹 rbr+雙向鏈表 rdllist。只要句柄不變,內(nèi)核就能復(fù)用上次計算的結(jié)果。
  • 每次 socket 狀態(tài)變化,內(nèi)核就可以快速從 rbr 查詢O(1),監(jiān)視進程是否關(guān)心這個 socket。同時修改 rdllist,所以 rdllist 實際上是“就緒的 socket”的一個緩存。
  • 內(nèi)核復(fù)制 rdllist 的一部分或者全部(LT 和 ET),到專門的 epoll_event 作為出參。

所以監(jiān)視進程,可以直接一個個處理數(shù)據(jù),無需再遍歷確認。

Select 示例代碼:

 

Epoll 示例代碼:

 

另外,epoll_create 底層實現(xiàn),到底是不是紅黑樹,其實也不太重要(完全可以換成 hashtable)。

重要的是 efd 是個指針,其數(shù)據(jù)結(jié)構(gòu)完全可以對外透明的修改成任意其他數(shù)據(jù)結(jié)構(gòu)。

②API 發(fā)布的時間線

另外,我們再來看看網(wǎng)絡(luò) IO 中,各個 api 的發(fā)布時間線:

  • 1983,socket 發(fā)布在 Unix(4.2 BSD)
  • 1983,select 發(fā)布在 Unix(4.2 BSD)
  • 1994,Linux 的 1.0,已經(jīng)支持 socket 和 select
  • 1997,poll 發(fā)布在 Linux 2.1.23
  • 2002,epoll 發(fā)布在 Linux 2.5.44

就可以得到兩個有意思的結(jié)論:

  • socket 和 select 是同時發(fā)布的。這說明了,select 不是用來代替?zhèn)鹘y(tǒng) IO 的。這是兩種不同的用法(或模型),適用于不同的場景。
  • select、poll 和 epoll,這三個“IO 多路復(fù)用 API”是相繼發(fā)布的。這說明了,它們是 IO 多路復(fù)用的 3 個進化版本。

因為 API 設(shè)計缺陷,無法在不改變 API 的前提下優(yōu)化內(nèi)部邏輯。所以用 poll 替代 select,再用 epoll 替代 poll。

總結(jié)

我們花了三個章節(jié),闡述 epoll 背后的原理,現(xiàn)在用三句話總結(jié)一下:

  • 基于數(shù)據(jù)收發(fā)的基本原理,系統(tǒng)利用阻塞提高了 CPU 利用率。
  • 為了優(yōu)化上線文切換,設(shè)計了“IO 多路復(fù)用”(和 NAPI)。
  • 為了優(yōu)化“內(nèi)核與監(jiān)視進程的交互”,設(shè)計了三個版本的 API(select,poll,epoll)。

Diss 環(huán)節(jié)

講完“epoll 背后的原理”,已經(jīng)可以回答最初的幾個問題。這已經(jīng)是一個完整的文章,很多人勸我刪掉下面的 diss 環(huán)節(jié)。

我的觀點是:學(xué)習(xí)就是個研究+理解的過程。上面是研究,下面再講一下我的個人“理解”,歡迎指正。

關(guān)于 IO 模型的分類

關(guān)于阻塞,非阻塞,同步,異步的分類,這么分自然有其道理。但是在操作系統(tǒng)的角度來看“這樣分類,容易產(chǎn)生誤解,并不好”。

 

①阻塞和非阻塞

Linux 下所有的 IO 模型都是阻塞的,這是收發(fā)數(shù)據(jù)的基本原理導(dǎo)致的。阻塞用戶線程是一種高效的方式。

你當然可以寫一個程序,socket 設(shè)置成非阻塞模式,在不使用監(jiān)視器的情況下,依靠死循環(huán)完成一次 IO 操作。但是這樣做的效率實在是太低了,完全沒有實際意義。

換句話說,阻塞不是問題,運行才是問題,運行才會消耗 CPU。IO 多路復(fù)用不是減少了阻塞,是減少了運行。

上下文切換才是問題,IO 多路復(fù)用,通過減少運行的進程,有效的減少了上下文切換。

②同步和異步

Linux 下所有的 IO 模型都是同步的。BIO 是同步的,select 同步的,poll 同步的,epoll 還是同步的。

Java 提供的 AIO,也許可以稱作“異步”的。但是 JVM 是運行在用戶態(tài)的,Linux 沒有提供任何的異步支持。

因此 JVM 提供的異步支持,和你自己封裝成“異步”的框架是沒有本質(zhì)區(qū)別的(你完全可以使用 BIO 封裝成異步框架)。

所謂的“同步“和”異步”只是兩種事件分發(fā)器(event dispatcher)或者說是兩個設(shè)計模式(Reactor 和 Proactor)。

都是運行在用戶態(tài)的,兩個設(shè)計模式能有多少性能差異呢?

  • Reactor 對應(yīng) Java 的 NIO,也就是 Channel,Buffer 和 Selector 構(gòu)成的核心的 API。
  • Proactor對應(yīng) java 的 AIO,也就是 Async 組件和 Future 或 Callback 構(gòu)成的核心的 API。

③我的分類

我認為 IO 模型只分兩類:

  • 更加符合程序員理解和使用的,進程模型。
  • 更加符合操作系統(tǒng)處理邏輯的,IO 多路復(fù)用模型。

對于“IO 多路復(fù)用”的事件分發(fā),又分為兩類:Reactor 和 Proactor。

關(guān)于 mmap

epoll 到底用沒用到 mmap?答案:沒有!

這是個以訛傳訛的謠言。其實很容易證明的,用 epoll 寫個 demo。strace 一下就清楚了。

作者:馮志明

簡介:2019 年至今負責(zé)搜索算法的相關(guān)工作,擅長處理復(fù)雜的業(yè)務(wù)系統(tǒng),對底層技術(shù)有濃厚興趣。

編輯:陶家龍

出處:轉(zhuǎn)載自公眾號Qunar技術(shù)沙龍(ID:QunarTL)

 

責(zé)任編輯:武曉燕 來源: Qunar技術(shù)沙龍
相關(guān)推薦

2021-03-04 08:06:13

Java代理機制

2021-10-07 20:12:03

MVCC事務(wù)原理

2021-08-12 10:36:18

order byMySQL數(shù)據(jù)庫

2017-12-26 14:17:24

潤乾報表

2023-01-10 19:47:47

Redis原理多線程

2021-06-15 07:15:15

Oracle底層explain

2022-01-17 20:59:37

開發(fā)group by思路

2020-12-18 06:09:07

Java淺拷貝深拷貝

2021-12-01 07:26:13

IO模型異步

2025-02-13 09:06:27

2024-05-21 08:40:21

分庫分表源碼

2023-09-12 07:31:45

HashMap線程

2015-10-10 11:10:24

重敲代碼拷貝粘貼

2024-03-12 08:20:57

零拷貝存儲開發(fā)

2024-03-26 07:59:32

IO模型多路復(fù)用

2019-09-19 08:04:40

網(wǎng)絡(luò)七層模型TCPUDP

2020-02-09 17:30:54

反轉(zhuǎn)鏈表程序員節(jié)點

2022-02-22 09:16:41

AndroidWindows狀態(tài)欄

2022-08-26 10:41:03

指針C語言

2023-08-14 07:49:42

AI訓(xùn)練
點贊
收藏

51CTO技術(shù)棧公眾號