自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Linux fd 系列 — socket fd 是什么?

系統(tǒng) Linux
什么是 socket fd ?粗糙的來講,就是網(wǎng)絡(luò) fd,比如我們最常見的 C/S 客戶端服務(wù)端的編程模式,就是網(wǎng)絡(luò)通信的一種方式。

 

 

socket fd 長什么樣子?

什么是 socket fd ?粗糙的來講,就是網(wǎng)絡(luò) fd,比如我們最常見的 C/S 客戶端服務(wù)端的編程模式,就是網(wǎng)絡(luò)通信的一種方式。撇開底層和協(xié)議細(xì)節(jié),網(wǎng)絡(luò)通信和文件讀寫從接口上有本質(zhì)區(qū)別嗎?

其實沒啥區(qū)別,不就是讀過來和寫過去嘛,簡稱 IO 。

我們先看一下 socket fd 是什么樣子的?隨便找了個進(jìn)程 

  1. root@ubuntu:~# ll /proc/1583/fd  
  2. total 0  
  3. lrwx------ 1 root root 64 Jul 19 12:37 7 -> socket:[18892]  
  4. lrwx------ 1 root root 64 Jul 19 12:37 8 -> socket:[18893] 

這里我們看到 fd 7、8 都是一個 socket fd,名字:socket:[18892]

整數(shù)句柄后面一般會跟一些信息,用于幫助我們了解這個 fd 是什么。舉個例子,如果是文件 fd,那么箭頭后面一般是路徑名稱?,F(xiàn)在拆解一下這個名字:

  •  socket :標(biāo)識這是一個 socket 類型的 fd
  •  [18892]  :這個是一個 inode 號,能夠唯一標(biāo)識本機(jī)的一條網(wǎng)絡(luò)連接;

思考下,這個 inode 號,還能再哪里能看到呢?

在 proc 的 net 目錄下,因為我這個是一個走 tcp 的服務(wù)端,所以我們看一下  /proc/net/tcp 文件。這個文件里面能看到所有的 tcp 連接的信息。 

  1. root@ubuntu:~# grep -i "18892" /proc/net/tcp  
  2.   18: 00000000:1F93 00000000:0000 0A 00000000:00000000 00:00000000 00000000     0        0 18892 1 ffff880197fba580 100 0 0 10 0                  
  3. root@ubuntu:~# grep -i "18893" /proc/net/tcp  
  4.   28: 00000000:1F7C 00000000:0000 0A 00000000:00000000 00:00000000 00000000     0        0 18893 1 ffff880197fbad00 100 0 0 10 0     

知識點又來了,/proc/net/tcp 這個文件記錄了 tcp 連接的信息,這份信息是非常有用的。包含了 TCP 連接的地址(16進(jìn)制顯示),inode 的信息,連接的狀態(tài)等等。

socket fd 是什么?

環(huán)境聲明:

Linux 內(nèi)核版本 4.19 

為了方便,如果沒特意說明協(xié)議,默認(rèn) TCP 協(xié)議;

socket 可能你還沒反應(yīng)過來,中文名:套接字 是不是更熟悉點。Linux 網(wǎng)絡(luò)編程甚至可以叫做套接字編程。

有些概念你必須捋一捋 。我們思考幾個小問題:

socket 跟 tcp/ip 有什么區(qū)別?

就不該把這兩個東西放在一起比較討論,就不是一個東西。tcp/ip 是網(wǎng)絡(luò)協(xié)議棧,socket 是操作系統(tǒng)為了方便網(wǎng)絡(luò)編程而設(shè)計出來的編程接口而已。

理論基礎(chǔ)是各種網(wǎng)絡(luò)協(xié)議,協(xié)議棧呀,啥的。但是如果你要進(jìn)行網(wǎng)絡(luò)編程,落到實處,對程序猿來講就是 socket 編程。

對于網(wǎng)絡(luò)的操作,由 socket 體現(xiàn)為 open -> read/write ->close 這樣的編程模式,這個統(tǒng)一到文件的一種形式。

socket 的 open 就是 socket(int domain, int type, int protocol) ,和文件一樣,都是獲取一個句柄。

網(wǎng)絡(luò)抽象層次

網(wǎng)絡(luò)模型一般會對應(yīng)到兩種:

  •  完美理論的 OSI 七層模型;
  •  現(xiàn)實應(yīng)用的 5 層模型;

對應(yīng)關(guān)系如下圖(取自 Unix 套接字編程)

不同層次做不同的事情,不斷的封裝,不斷的站在巨人的肩膀上,你將能做的更多。

今天,奇伢剖析的只聚焦在套接字這一層,這是程序猿摸得到的一層,位于所有網(wǎng)絡(luò)協(xié)議之上的一層封裝,網(wǎng)絡(luò)編程又叫套接字編程,這并不是空穴來風(fēng)。

套接字,是內(nèi)核對賊復(fù)雜的網(wǎng)絡(luò)協(xié)議棧的 API 封裝,使得程序猿能夠用極簡的姿勢進(jìn)行網(wǎng)絡(luò)編程。比如寫一個基于 Tcp 的 C/S 的網(wǎng)絡(luò)程序,需要用到啥?我們大概暢想下:

  1.  客戶端和服務(wù)端都用 socket 調(diào)用創(chuàng)建套接字;
  2.  服務(wù)端用 bind 綁定監(jiān)聽地址,用 listen 把套接字轉(zhuǎn)化為監(jiān)聽套接字,用 accept 撈取一個客戶端來的連接;
  3.  客戶端用 connect 進(jìn)行建連,用 write/read 進(jìn)行網(wǎng)絡(luò) IO;

程序猿用著好簡單!因為內(nèi)核把事扛了。

socket fd 的類型

上面我們提到了套接字,這是我們網(wǎng)絡(luò)編程的主體,套接字由 socket() 系統(tǒng)調(diào)用創(chuàng)建,但你可知套接字其實可分為兩種類型,監(jiān)聽套接字和普通套接字。而監(jiān)聽套接字是由 listen() 把 socket fd 轉(zhuǎn)化而成。

 1   監(jiān)聽套接字

對于監(jiān)聽套接字,不走數(shù)據(jù)流,只管理連接的建立。accept 將從全連接隊列獲取一個創(chuàng)建好的 socket( 3 次握手完成),對于監(jiān)聽套接字的可讀事件就是全連接隊列非空。對于監(jiān)聽套接字,我們只在乎可讀事件。

 2   普通套接字

普通套接字就是走數(shù)據(jù)流的,也就是網(wǎng)絡(luò) IO,針對普通套接字我們關(guān)注可讀可寫事件。在說 socket 的可讀可寫事件之前,我們先捋順套接字的讀寫大概是什么樣子吧。

套接字層是內(nèi)核提供給程序員用來網(wǎng)絡(luò)編程的,程序猿讀寫都是針對套接字而言,那么 write( socketfd, /* 參數(shù) */) 和 read( socketfd, /* 參數(shù) */) 都會發(fā)生什么呢?

  •  write 數(shù)據(jù)到 socketfd,大部分情況下,數(shù)據(jù)寫到 socket 的內(nèi)存 buffer,就結(jié)束了,并沒有發(fā)送到對端網(wǎng)絡(luò)(異步發(fā)送);
  •  read socketfd 的數(shù)據(jù),也只是從 socket 的 內(nèi)存 buffer 里讀數(shù)據(jù)而已,而不是從網(wǎng)卡讀(雖然數(shù)據(jù)是從網(wǎng)卡一層層遞上來的);

也就是說,程序猿而言,是跟 socket 打交道,內(nèi)核屏蔽了底層的細(xì)節(jié)。

那說回來 socket 的可讀可寫事件就很容易理解了。

  •  socketfd 可讀:其實就是 socket buffer 內(nèi)有數(shù)據(jù)(超過閾值 SO_RCLOWAT );
  •  socketfd 可寫:就是 socket buffer 還有空間讓你寫(閾值 SO_SNDLOWAT );

sockfs 文件系統(tǒng)

socket fd 為什么能具備“文件”的語義,從而和 eventfd,ext2 fd 這樣的句柄一樣,統(tǒng)一提供對外 io 的樣子?

核心就是:sockfs ,這也是個文件系統(tǒng),只不過普通用戶看不見,這是只由內(nèi)核管理的文件系統(tǒng),位于 vfs 之下,為了封裝 socket 對上的文件語義。 

  1. // net/socket.c  
  2. static int __init sock_init(void)  
  3.  
  4.     // 注冊 sockfs 文件系統(tǒng)  
  5.     err = register_filesystem(&sock_fs_type);  
  6.     // 內(nèi)核掛載  
  7.     sock_mnt = kern_mount(&sock_fs_type); 

其中最關(guān)鍵的是 sock_mnt 這個全局變量里面的超級塊的操作表 sockfs_ops 。 

  1. // net/socket.c  
  2. static const struct super_operations sockfs_ops = {  
  3.     .alloc_inode    = sock_alloc_inode 
  4.     .destroy_inode  = sock_destroy_inode 
  5.     .statfs     = simple_statfs 
  6. }; 

這個是每個文件系統(tǒng)的核心函數(shù)表,如上指明了 inode 的分配規(guī)則(這里又將體現(xiàn)依次結(jié)構(gòu)體內(nèi)嵌組合+類型強(qiáng)轉(zhuǎn)的應(yīng)用)。

讀者朋友還記得 inode 和 ext4_inode_info 的關(guān)系嗎?在 Linux fd 究竟是什么?一文中有提到這個:

inode 是 vfs 抽象的適配所有文件系統(tǒng)的結(jié)構(gòu)體,但分配其實是有下層具體文件系統(tǒng)分配出來的,以 ext4 文件系統(tǒng)來說,使用 ext4_alloc_inode 函數(shù)分配出 ext4_inode_info 這個大結(jié)構(gòu)體,然后返回的是 inode 的地址而已。

劃重點:struct inode 內(nèi)嵌于具體文件系統(tǒng)的 “inode” 里,vfs 層使用的是 inode,ext4 層使用的是 ext4_inode_info ,不同層次通過地址的強(qiáng)制轉(zhuǎn)化類型來切換結(jié)構(gòu)體。

那么類似,sockfs 也是如此,sockfs 作為文件系統(tǒng),也有自己特色的 “inode”,這個類型就是 struct socket_alloc ,如下: 

  1. struct socket_alloc {  
  2.     struct socket socket;  
  3.     struct inode vfs_inode;  
  4. }; 

這個結(jié)構(gòu)體關(guān)聯(lián) socket 和 inode 兩個角色,是“文件”抽象的核心之一。分配 struct socket 結(jié)構(gòu)體其實是分配了 struct socket_alloc 結(jié)構(gòu)體,然后返回了 socket_alloc->socket  字段的地址而已。

劃重點:vfs 層用的時候給 inode 字段的地址,socket 層的時候給 socket 字段的地址。不同抽象層面對于同一個內(nèi)存塊的理解不同,強(qiáng)制轉(zhuǎn)化類型,然后各自使用

從文件的角度來看 socket,模塊如下:

回調(diào)喚醒的通用做法?

先鋪墊一個小知識點:內(nèi)核里面有回調(diào)喚醒的實現(xiàn),里面有用到一種 wait queue 的做法,其實很簡單的原理。

大白話原理:你要走可以,把聯(lián)系方式留下,我搞好之后通知你(調(diào)用你留下的函數(shù),傳入你留下的參數(shù))。

拿 socket 來說,struct sock 里面就有個字段 sk_wq ,這是個表頭,就是用來掛接等待對象的。

誰會掛?

就以 epoll 池來說,epoll_ctl 注冊 socket fd 的時候,就會掛一個 wait 對象到 sk->sk_wq 里?;卣{(diào)參數(shù)為 ep_poll_callback ,參數(shù)為 epitem 。

這樣 epoll 給 socket 留下聯(lián)系方式了( wait 對象 ),socket 有啥事就可以隨時通知到 epoll 池了。

能有什么事?

socket 可讀可寫了唄。sk buffer 里面有數(shù)據(jù)可以讀,或者有空間可以寫了唄。對于監(jiān)聽類型的 socket,有新的連接了唄。epoll 監(jiān)聽的不就是這個嘛。

socket 編程 ?

服務(wù)端:

  1.  socket( ) 創(chuàng)建出 socketfd;
  2.  bind( )  綁定一個端口(和客戶端約定好的知名端口號);
  3.  listen( ) 講套接字轉(zhuǎn)化成監(jiān)聽套接字;
  4.  accept( ) 等待客戶端的建連請求;
  5.  建連之后 read/write 處理數(shù)據(jù)即可(一般和監(jiān)聽線程并發(fā));

客戶端:

  1.  socket( ) 創(chuàng)建出 socketfd;
  2.  connect( ) 向指定機(jī)器、端口發(fā)起建連請求;
  3.  建連之后,read/write 處理數(shù)據(jù);

下面就幾個關(guān)鍵函數(shù)做個簡要實現(xiàn)。

 1   socket 函數(shù)

定義原型: 

  1. #include<sys/socket.h>  
  2. int socket(int family, int type, int protocol) 

簡要跟蹤下內(nèi)部實現(xiàn):

socket 系統(tǒng)調(diào)用對應(yīng)了 __sys_socket 這個函數(shù)。這個函數(shù)主要做兩件事情:

    1.  第一件事:調(diào)用 socket_create 函數(shù)創(chuàng)建好 socket 相關(guān)的結(jié)構(gòu)體,主要是 struct socket ,還有與之關(guān)聯(lián)的 socket sock 結(jié)構(gòu),再往下就是具體網(wǎng)絡(luò)協(xié)議對應(yīng)的結(jié)構(gòu)體(旁白:這里實現(xiàn)細(xì)節(jié)過于復(fù)雜,不在文章主干,故略去 10 萬字);

    2.  第二件事:調(diào)用 sock_map_fd 函數(shù)創(chuàng)建好 struct file 這個結(jié)構(gòu)體,并與第一步創(chuàng)建出的 struct socket 關(guān)聯(lián)起來;

涉及的一些函數(shù)調(diào)用: 

  1. __sys_socket 
  2.     // 創(chuàng)建 struct socket 結(jié)構(gòu)體  
  3.     -> sock_create  
  4.             // 創(chuàng)建 struct socket 結(jié)構(gòu),并且關(guān)聯(lián)特殊 inode  
  5.             -> sock_alloc  
  6.             // pf 是根據(jù) family 從 net_families 這個全局表中取出的操作函數(shù)表,用來創(chuàng)建具體網(wǎng)絡(luò)協(xié)議結(jié)構(gòu)的;    
  7.             // 比如 IPv4 對應(yīng)的 family 就是 AF_INET ,對應(yīng)的函數(shù)是 inet_create  
  8.             // 在這里面會賦值 sock->ops 為對應(yīng)協(xié)議族的操作函數(shù)表(比如 inet_stream_ops)  
  9.             -> pf->create  
  10.                     // struct sock 結(jié)構(gòu)體的創(chuàng)建(sk->sk_prot 的賦值就在這里,比如 tcp_prot )  
  11.                     -> sk_alloc  
  12.                     // struct sock 結(jié)構(gòu)體的初始化(比如 sk_receive_queue, sk_write_queue, sk_error_queue 就是在這里初始化的)  
  13.                     // 可讀寫的關(guān)鍵函數(shù) sock_def_readable,sock_def_write_space 也是在這里賦值的  
  14.                     -> sock_init_data  
  15.     // 創(chuàng)建 struct file 結(jié)構(gòu)體,并且關(guān)聯(lián) struct socket  
  16.     -> sock_map_fd 

先說 socket 函數(shù)::

  1.  socket( ) 函數(shù)只負(fù)責(zé)創(chuàng)建出適配具體網(wǎng)絡(luò)協(xié)議的資源(內(nèi)存、結(jié)構(gòu)體、隊列等),并沒有和具體地址綁定;
  2.  socket( ) 返回的是非負(fù)整數(shù)的 fd,與 struct file 對應(yīng),而 struct file 則與具體的 struct socket 關(guān)聯(lián),從而實現(xiàn)一切皆文件的封裝的一部分(另一部分 inode 的創(chuàng)建處理在 sock_alloc 的函數(shù)里體現(xiàn));

再簡要說下內(nèi)部細(xì)節(jié):

sock_create 函數(shù)里,會根據(jù)協(xié)議族查找對應(yīng)的操作表,以 AF_INET 協(xié)議族舉例,pf->create 是 inet_create ,主要做兩件事:

  1.  把 sock->ops 按照協(xié)議類型賦值成具體的函數(shù)操作表,比如 tcp 的就是 inet_stream_ops ;
  2.  創(chuàng)建了 struct sock 對象,并且把 struct sock 初始化,并和 struct socket 進(jìn)行關(guān)聯(lián);

著重提一點,sock_init_data  函數(shù)( net/core/sock.c )主要是初始化 struct sock 結(jié)構(gòu)體的,提兩點最關(guān)鍵的:

第一點:接收隊列和發(fā)送隊列在這里初始化;

  •  sk_receive_queue:套接字接收到的數(shù)據(jù)(sk_buff 里面是純粹的用戶數(shù)據(jù)哦,沒有 header 啥信息);
  •  sk_write_queue:套接字要發(fā)送的數(shù)據(jù);
  •  sk_error_queue:掛接一些 pengding 的 error 信息;

第二點:socket 的喚醒回調(diào)在這個地方設(shè)置; 

  1. sk->sk_data_ready   =   sock_def_readable 
  2. sk->sk_write_space  =   sock_def_write_space

 為什么這里很重要,因為這個跟 socket fd 可讀可寫的判斷邏輯,數(shù)據(jù)到了之后的喚醒路徑息息相關(guān)。簡述下回調(diào)鏈路(以套接字層為主干,其他的流程簡略描述): 

  1. sk->sk_data_ready(數(shù)據(jù)到了,該通知留下過聯(lián)系方式的人了)  
  2. tcp_v4_rcv(具體協(xié)議棧處理函數(shù))  
  3. 軟中斷  
  4. 硬中斷 

再說下結(jié)構(gòu)體:

繼續(xù)說 struct sock ,這個對象有意思了,這個也是以組合的方式往下兼容的,同一個地址強(qiáng)轉(zhuǎn)類型得到不同層面的結(jié)構(gòu)體。原理就在于:他們是一塊連續(xù)的內(nèi)存空間,起始地址相同。 

  1. sock -> inet_sock -> inet_connection_sock-> tcp_sock 

示意圖:

小思考:struct socket 和 struct sock 是兩個不同的結(jié)構(gòu)體?

是的。這兩個是不同的結(jié)構(gòu)體。屬于套接字層的兩個維度的描述,一個面向上層,一個面向下層。

struct socket 在內(nèi)核的注釋為:

struct socket - general BSD socket

struct sock 在內(nèi)核的注釋為:

struct sock_common - minimal network layer representation of sockets

struct socket 是內(nèi)核抽象出的一個通用結(jié)構(gòu)體,主要作用是放置了一些跟 fs 相關(guān)的字段,而真正跟網(wǎng)絡(luò)通信相關(guān)的字段結(jié)構(gòu)體是 struct sock 。它們內(nèi)部有相互的指針,可以獲取到對方的地址。

struct socket 這個字段出生的時候其實就和一個 inode 結(jié)構(gòu)體伴生出來的,由 socketfs  的 sock_alloc_inode  函數(shù)分配。

struct sock 這個結(jié)構(gòu)體是 socket 套階字核心的結(jié)構(gòu)(注意,還有個結(jié)構(gòu)是 struct socket,這兩個是不同的結(jié)構(gòu)體哦)。這個是對底下具體協(xié)議做的一層抽象封裝,比如在分配 struct sock 的時候,如果是 tcp 協(xié)議,那么 sk->sk_prot 會賦值為 tcp_prot ,udp 協(xié)議賦值的是 udp_prot ,之后的一系列協(xié)議解析和處理就是調(diào)用到對應(yīng)協(xié)議的回調(diào)函數(shù)。

小思考:socket fd 可以和文件一樣用 write(fd, /*xxxx*/ ) 這行的調(diào)用,為什么?

write(fd, /*xxxx*/) 進(jìn)到內(nèi)核首先是到 vfs 層,也就是調(diào)用到 vfs_write ,在這個里面首先獲取到 file 這個結(jié)構(gòu)體,然后調(diào)用下層注冊的回調(diào),比如 file->f_op->write_iter ,file->f_op->write ,所以,關(guān)鍵在 file->f_op 這個字段,對吧?

現(xiàn)在的問題是,這個字段是啥呢?

這個字段在 file 結(jié)構(gòu)體生成的時候,根據(jù)你的“文件”類型賦值的,這個在之前文件系統(tǒng)章節(jié)提過這個,比如 ext2 的文件,那么就是 ext2_file_operations ,socketfd 是 socket_file_ops。 

  1. vfs_write    =>    
  2.                 -> socket_file_ops (sockfs)  
  3.                 -> ext2_file_operations (ext2)  
  4.                 -> ext4_file_operations (ext4)  
  5.                 -> eventfd_fops  

可以看下 socket_file_ops  的定義: 

  1. static const struct file_operations socket_file_ops = {  
  2.     .llseek =   no_llseek 
  3.     .read_iter =    sock_read_iter 
  4.     .write_iter =   sock_write_iter 
  5.     .poll =     sock_poll 
  6.     // ...  
  7. }     

所以,vfs_write 調(diào)用到的將是 sock_write_iter,而這個里面就是調(diào)用到 sock_sendmsg ,從而走到網(wǎng)絡(luò)相關(guān)的處理流程。 

  1. // sock_sendmsg 實際調(diào)用;  
  2. static inline int sock_sendmsg_nosec(struct socket *sock, struct msghdr *msg)  
  3.  
  4.     int ret = sock->ops->sendmsg(sock, msg, msg_data_left(msg));  
  5.     return ret;  

還記得上面在 socket 初始化的時候 socket->ops 和 sock->sk_prot 兩個回調(diào)函數(shù)操作表的賦值嗎( tcp ):

  •  socket->ops => inet_stream_ops
  •  sock->sk_prot => tcp_prot

這樣從 vfs 進(jìn)來,轉(zhuǎn)接到具體的協(xié)議處理模塊去了。

 2   bind 函數(shù)

對應(yīng)內(nèi)核 __sys_bind 函數(shù),做的事情很簡單:

  1.  先通過 fd 找到對應(yīng)的 struct socket 結(jié)構(gòu)體;
  2. 然后把 address 和 socket 綁定對應(yīng)起來(調(diào)用 sock->ops->bind 函數(shù));

tcp 連接的對應(yīng)的 bind 函數(shù)是 inet_bind,里面做的事情很簡單,就是簡單的查一下端口有沒有被占用,沒有被占用的話端口就賦值給 inet_sock->inet_sport 這個字段。

inet_sock 則是由 sk 強(qiáng)轉(zhuǎn)類型得到。

思考個小問題:在上面的圖中,bind 這個函數(shù)只在服務(wù)端用到?

為啥客戶端沒用這個函數(shù)呢?

其實,客戶端也是可以用 bind 這個函數(shù),但是沒必要。

理解下 bind 函數(shù)的作用:給這個 socketfd 綁定地址(IP:Port)用的。客戶端不需要是因為:如果沒設(shè)置,內(nèi)核在建連的時候會自動選一個臨時的端口號作為本次 TCP 連接的地址。一般客戶端也不在意端口號,只要能和服務(wù)端正常通信就好,所以客戶端一般沒有 bind 調(diào)用。

服務(wù)端必須要用這個是因為服務(wù)端必須提前明確指定監(jiān)聽的 IP 和 Port (不然誰知道向哪里發(fā)起連接呢)。

 3   listen 函數(shù)

其實 socket( ) 創(chuàng)建出來的套接字并無客戶端和服務(wù)端之分,是 listen 函數(shù)讓 socket 有了不一樣的屬性,成為監(jiān)聽套接字。

listen 系統(tǒng)調(diào)用主要做兩件事:

  1.  通過 fd 找到 struct socket 結(jié)構(gòu)體;
  2.  調(diào)用 sock->ops->listen 函數(shù)(對應(yīng) inet_listen );

inet_listen  做啥了?內(nèi)核注釋:

Move a socket into listening state.

簡單看下 inet_listen 的實現(xiàn)功能:

  1.  檢查 socket 狀態(tài),類型,必須為流式套接字才能轉(zhuǎn)化成監(jiān)聽套接字;
  2.  調(diào)用 inet_csk_listen_start ;

inet_csk_listen_start 做啥了?

  1. 初始化請求隊列 icsk->icsk_accept_queue ;
  2. 套接字狀態(tài)設(shè)置成 TCP_LISTEN;
  3.  獲取到之前 bind 的端口,如果沒有設(shè)置,那么就會用個臨時的端口;
  4.  把監(jiān)聽套接字加入到全局 hash 表中;

劃重點:套接字的轉(zhuǎn)變就在于此。

 4   accept 函數(shù)

inet_accept ( net/ipv4/af_inet.c )注釋:

Accept a pending connection. The TCP layer now gives BSD semantics.

這個主要是從隊列 icsk->icsk_accept_queue 中取請求,如果隊列為空,就看 socket 是否設(shè)置了非阻塞標(biāo)識,非阻塞的就直接報錯 EAGAIN,否則阻塞線程等待。

所以,監(jiān)聽套接字的可讀事件是啥?

icsk_accept_queue 隊列非空。

這個隊列什么時候被填充的? 

  1. tcp_child_process  
  2.     -> tcp_rcv_state_process 

這個也是底層網(wǎng)絡(luò)協(xié)議回調(diào)往上調(diào)用的,tcp 三次握手之后,建立好的連接就在一個隊列中 accept_queue ,隊列非空則為只讀。由 tcp 的協(xié)議棧往上調(diào)用,對應(yīng)到 socket 層,還是會調(diào)用到 sk->sk_data_ready 。

這里還是以 epoll 管理監(jiān)聽套接字來舉例。這個跟上面講的數(shù)據(jù)來了一樣,都是把掛接在 socket 本身上的 wait 對象進(jìn)行喚醒(調(diào)用回調(diào)),這樣就會到 ep_poll_callback ,ep_poll_callback 就會把監(jiān)聽套接字對應(yīng)的 ep_item 掛到 epoll 的 ready 隊列中,并且喚醒阻塞在 epoll_wait 的線程,從而實現(xiàn)了監(jiān)聽套接字的讀事件的觸發(fā)的流程。

 5   connect 函數(shù)

這個沒啥講的,就是由客戶端向服務(wù)端發(fā)起連接的時候調(diào)用,一般也和 epoll 配合不起來,略過。

句柄事件

在 深入剖析 epoll 篇 我們就提到過,epoll 池可以管理 socket fd ,用于監(jiān)聽 socket fd 的可讀,可寫事件。那么問題來了,socket fd 的可讀可寫事件分別是啥?代表了什么含義?

這個要把服務(wù)端的監(jiān)聽類型的 socket fd 和傳輸數(shù)據(jù)的 socket fd 分開來說。

監(jiān)聽類型的 fd:

  1.  有 client 建連,則觸發(fā)可讀事件;
  2.  句柄被 close ,則觸發(fā)可讀事件;

數(shù)據(jù)類型的 fd:

  1.  sk buffer 有可讀的數(shù)據(jù),觸發(fā)可讀事件;
  2.  sk buffer 有可寫的空間,觸發(fā)可寫事件;
  3.  句柄杯 close,連接關(guān)閉的時候,也是可讀的;

還有,如果 socket 之上有 pending 的 error 待處理,那么也會觸發(fā)可讀事件。

epoll 池怎么配合?

最后,我們再回憶一下,epoll 池管理的 socket fd 是怎么及時觸發(fā)喚醒的呢?

換句話說,socket fd 數(shù)據(jù)就緒之后,怎么能及時的喚醒被阻塞在 epoll_wait 的線程?

還記得套接字 buffer 數(shù)據(jù)來了的時候的回調(diào)嗎?

調(diào)用的是 sk->sk_data_ready 這個函數(shù)指針,這個字段在 socket 初始化的時候被賦值為  sock_def_readable ,這個函數(shù)里面會依次調(diào)用所有掛接到 socket 的 wait 隊列的對象( 表頭:sk->sk_wq ),在這個 wait 隊列中存在和 epoll 關(guān)聯(lián)的秘密。

回憶下,在  深入剖析 epoll 篇 提到,epoll_ctl 的時候,在把 socket fd 注冊進(jìn) epoll 池的時候,會把一個 wait 對象掛接到這個 socket 的 sk->sk_wq 中 ,回調(diào)函數(shù)就是 ep_poll_callback 。

這個wait 對象就是數(shù)據(jù)就緒時候的聯(lián)系方式,這樣把 socket 數(shù)據(jù)就緒的流程和 epoll 關(guān)聯(lián)上了。

也就是說,sk->sk_data_ready 會調(diào)用到 ep_poll_callback ,ep_poll_callback 這個函數(shù)處理很簡單,做兩件事情:

  1.  把 socket 對應(yīng)的 ep_item 掛接到就緒隊列中;
  2.  把阻塞在 epoll_wait 的線程(Linux 進(jìn)程和線程本質(zhì)無區(qū)別)投遞到就緒隊列中,等待內(nèi)核調(diào)度(也就是所謂的喚醒,實現(xiàn)機(jī)制很簡單,就是 epoll_wait 阻塞切走之前,會創(chuàng)建出一個 wait 對象,掛到 epoll 池上,后續(xù)喚醒就能以此為依據(jù)); 
  1. ep_poll_callback  
  2. sk->sk_data_ready  
  3. tcp_v4_rcv(具體協(xié)議棧處理函數(shù))  
  4. 軟中斷  
  5. 硬中斷  
  6. 數(shù)據(jù)來了 

最后用一張簡要的圖展示結(jié)構(gòu)體之間的關(guān)系:

總結(jié)

  1. vfs 下有一個 sockfs 的抽象層,是把 socket 抽象成“文件” fd 的關(guān)鍵之一;
  2.  socket fd 能夠和文件 IO 一樣,使用 write/read 等系統(tǒng)調(diào)用,就得益于 vfs 幫你做的轉(zhuǎn)接。那 socket() 函數(shù)調(diào)用是不是就和 open 文件 fd 的效果是一樣的呀?是的,都是構(gòu)建并關(guān)聯(lián)各種內(nèi)核結(jié)構(gòu)體;
  3.  epoll 池能管理 socketfd,因為 socket fd 實現(xiàn) poll 接口;
  4.  epoll_ctl 注冊 socket fd 的時候,掛了個 wait 對象在 socket 的 sk_wq 里,所以數(shù)據(jù)就緒的時候,socket 才能通知到 epoll;
  5.  epoll_wait 切走的時候掛了個 wait 對象在 epoll 上,所以 epoll 就緒的時候,才能有機(jī)會喚醒阻塞的線程;
  6.  套接字由 socket() 創(chuàng)建出來,客戶端和服務(wù)端都是,listen() 調(diào)用可以把套接字轉(zhuǎn)化成監(jiān)聽套接字;
  7.  監(jiān)聽套接字一般只監(jiān)聽可讀事件,關(guān)注連接的建立,普通套接字走數(shù)據(jù)流,關(guān)注數(shù)據(jù)的讀寫事件; 

 

責(zé)任編輯:龐桂玉 來源: 良許Linux
相關(guān)推薦

2021-05-19 14:48:58

Linux文件fd

2014-09-16 16:28:33

Linux

2021-06-24 16:07:36

Linuxfind命令fd命令

2022-05-25 08:41:48

Linuxfd 命令文件

2012-10-25 15:05:19

工程投影機(jī)

2017-03-10 11:05:38

Linux發(fā)行版

2011-04-26 16:10:22

投影機(jī)

2012-10-12 16:36:26

投影機(jī)松下

2024-04-19 14:50:00

find文件查找

2024-06-20 12:48:17

Rustfd

2021-06-11 10:33:14

MySQLPidSocket

2022-12-21 08:04:19

socket圖解網(wǎng)絡(luò)

2023-03-02 08:48:43

Linuxsubshell

2021-12-20 14:56:07

LinuxTTY

2010-06-21 15:49:59

Linux apt是什

2022-04-03 13:17:21

Linux黑話解釋GRUB

2025-01-10 15:13:38

2021-09-03 09:12:09

Linux中斷軟件

2023-03-01 09:49:23

2009-03-25 16:32:28

LinuxSUSEEnterprise
點贊
收藏

51CTO技術(shù)棧公眾號