自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

格物致知-記一次Nodejs源碼分析的經(jīng)歷

開(kāi)發(fā) 前端
昨天分析http模塊相關(guān)的代碼時(shí),遇到了一個(gè)晦澀的邏輯,看了想,想了看還是沒(méi)看懂。百度、谷歌了很多帖子也沒(méi)看到合適的答案。

 [[353532]]

本文轉(zhuǎn)載自微信公眾號(hào)「編程雜技」,作者theanarkh。轉(zhuǎn)載本文請(qǐng)聯(lián)系編程雜技公眾號(hào)。 

昨天分析http模塊相關(guān)的代碼時(shí),遇到了一個(gè)晦澀的邏輯,看了想,想了看還是沒(méi)看懂。百度、谷歌了很多帖子也沒(méi)看到合適的答案。突然看到一個(gè)題目有點(diǎn)相識(shí)的搜索結(jié)果,點(diǎn)進(jìn)去是Stack Overflow上的帖子,但是已經(jīng)404,最后還是通過(guò)快照功能成功看到內(nèi)容。這個(gè)帖子[1]和我的疑惑不相關(guān),但是突然給了我一些靈感。沿著這個(gè)靈感去看了代碼,最后下載nodejs源碼,加了一些log,編譯了一夜(太久了,等不及編譯完成,得睡覺(jué)了)。上午起來(lái)驗(yàn)證,終于揭開(kāi)了疑惑。這個(gè)問(wèn)題源于下面這段代碼。

  1. function connectionListenerInternal(server, socket) { 
  2.   socket.server = server; 
  3.   // 分配一個(gè)http解析器 
  4.   const parser = parsers.alloc(); 
  5.   // 解析請(qǐng)求報(bào)文 
  6.   parser.initialize( 
  7.     HTTPParser.REQUEST, 
  8.     new HTTPServerAsyncResource('HTTPINCOMINGMESSAGE', socket), 
  9.     server.maxHeaderSize || 0, 
  10.     server.insecureHTTPParser === undefined ? 
  11.       isLenient() : server.insecureHTTPParser, 
  12.   ); 
  13.   parser.socket = socket; 
  14.   // 開(kāi)始解析頭部的開(kāi)始時(shí)間 
  15.   parser.parsingHeadersStart = nowDate(); 
  16.   socket.parser = parser; 
  17.   const state = { 
  18.     onData: null
  19.     onEnd: null
  20.     onClose: null
  21.     onDrain: null
  22.     // 同一tcp連接上,請(qǐng)求和響應(yīng)的的隊(duì)列 
  23.     outgoing: [], 
  24.     incoming: [], 
  25.     outgoingData: 0, 
  26.     keepAliveTimeoutSet: false 
  27.   }; 
  28.   state.onData = socketOnData.bind(undefined, server, socket, parser, state); 
  29.   socket.on('data', state.onData); 
  30.  
  31.   if (socket._handle && socket._handle.isStreamBase && 
  32.       !socket._handle._consumed) { 
  33.     parser._consumed = true
  34.     socket._handle._consumed = true
  35.     parser.consume(socket._handle); 
  36.   } 
  37.   parser[kOnExecute] = 
  38.     onParserExecute.bind(undefined, server, socket, parser, state); 
  39.  
  40.   socket._paused = false

這段代碼看起來(lái)很多,這是啟動(dòng)http服務(wù)器后,有新的tcp連接建立時(shí)執(zhí)行的回調(diào)。問(wèn)題在于tcp上有數(shù)據(jù)到來(lái)時(shí),是怎么處理的,上面代碼中nodejs監(jiān)聽(tīng)了socket的data事件,同時(shí)注冊(cè)了鉤子kOnExecute。data事件我們都知道是流上有數(shù)據(jù)到來(lái)時(shí)觸發(fā)的事件。我們看一下socketOnData做了什么事情。

  1. function socketOnData(server, socket, parser, state, d) { 
  2.   // 交給http解析器處理,返回已經(jīng)解析的字節(jié)數(shù) 
  3.   const ret = parser.execute(d); 
  4.   onParserExecuteCommon(server, socket, parser, state, ret, d); 

這看起來(lái)沒(méi)有問(wèn)題,socket上有數(shù)據(jù),然后交給http解析器處理。幾乎所有http模塊源碼解析的文章也是這樣分析的,我第一反應(yīng)也覺(jué)得這個(gè)沒(méi)問(wèn)題,那kOnExecute是做什么的呢?kOnExecute鉤子函數(shù)的值是onParserExecute,這個(gè)看起來(lái)也是解析tcp上的數(shù)據(jù)的,看起來(lái)和onSocketData是一樣的作用,難道tcp上的數(shù)據(jù)有兩個(gè)消費(fèi)者?我們看一下kOnExecute什么時(shí)候被回調(diào)的。

  1. void OnStreamRead(ssize_t nread, const uv_buf_t& buf) override { 
  2.  
  3.     Local<Value> ret = Execute(buf.base, nread); 
  4.     Local<Value> cb = 
  5.         object()->Get(env()->context(), kOnExecute).ToLocalChecked(); 
  6.     MakeCallback(cb.As<Function>(), 1, &ret); 
  7.   } 

在node_http_parser.cc中的OnStreamRead中被回調(diào),那么OnStreamRead又是什么時(shí)候被回調(diào)的呢?OnStreamRead是nodejs中c++層流操作的通用函數(shù),當(dāng)流有數(shù)據(jù)的時(shí)候就會(huì)執(zhí)行該回調(diào)。而且OnStreamRead中也會(huì)把數(shù)據(jù)交給http解析器解析。這看起來(lái)真的有兩個(gè)消費(fèi)者?這就很奇怪,為什么一份數(shù)據(jù)會(huì)交給http解析器處理兩次?這時(shí)候我的想法就是這兩個(gè)地方肯定是互斥的。但是我一直沒(méi)有找到是哪里做了處理。最后在connectionListenerInternal的一段代碼中找到了答案。

  1. if (socket._handle && socket._handle.isStreamBase && !socket._handle._consumed) { 
  2.     parser._consumed = true
  3.     socket._handle._consumed = true
  4.     parser.consume(socket._handle); 
  5.   } 

因?yàn)閠cp流是繼承StreamBase類(lèi)的,所以if成立(后面會(huì)具體分析)。我們看一下consume的實(shí)現(xiàn)。

  1. static void Consume(const FunctionCallbackInfo<Value>& args) { 
  2.     Parser* parser; 
  3.     ASSIGN_OR_RETURN_UNWRAP(&parser, args.Holder()); 
  4.     CHECK(args[0]->IsObject()); 
  5.     StreamBase* stream = StreamBase::FromObjject(args[0].As<Object>()); 
  6.     CHECK_NOT_NULL(stream); 
  7.     stream->PushStreamListener(parser); 
  8.   } 

http解析器把自己注冊(cè)為tcp stream的一個(gè)listener。這里涉及到了c++層對(duì)流的設(shè)計(jì)。我們從頭開(kāi)始??匆幌翽ushStreamListener做了什么事情。c++層中,流的操作由類(lèi)StreamResource進(jìn)行了封裝。

  1. class StreamResource { 
  2.  public
  3.   virtual ~StreamResource(); 
  4.   virtual int ReadStart() = 0; 
  5.   virtual int ReadStop() = 0; 
  6.   virtual int DoShutdown(ShutdownWrap* req_wrap) = 0; 
  7.   virtual int DoTryWrite(uv_buf_t** bufs, size_t* count); 
  8.   virtual int DoWrite(WriteWrap* w, 
  9.                       uv_buf_t* bufs, 
  10.                       size_t count
  11.                       uv_stream_t* send_handle) = 0; 
  12.   void PushStreamListener(StreamListener* listener); 
  13.   void RemoveStreamListener(StreamListener* listener); 
  14.  
  15.  protected: 
  16.   uv_buf_t EmitAlloc(size_t suggested_size); 
  17.   void EmitRead(ssize_t nread, const uv_buf_t& buf = uv_buf_init(nullptr, 0)); 
  18.  
  19.   StreamListener* listener_ = nullptr; 
  20.   uint64_t bytes_read_ = 0; 
  21.   uint64_t bytes_written_ = 0; 
  22.   friend class StreamListener; 
  23. }; 

我們看到StreamResource是一個(gè)基類(lèi),定義了操作流的公共方法。其中有一個(gè)成員是StreamListener類(lèi)的實(shí)例。我們看看StreamListener的實(shí)現(xiàn)。

  1. class StreamListener { 
  2.  public
  3.   virtual ~StreamListener(); 
  4.   virtual uv_buf_t OnStreamAlloc(size_t suggested_size) = 0; 
  5.   virtual void OnStreamRead(ssize_t nread, 
  6.                             const uv_buf_t& buf) = 0; 
  7.   virtual void OnStreamDestroy() {} 
  8.   inline StreamResource* stream() { return stream_; } 
  9.  
  10.  protected: 
  11.   void PassReadErrorToPreviousListener(ssize_t nread); 
  12.  
  13.   StreamResource* stream_ = nullptr; 
  14.   StreamListener* previous_listener_ = nullptr; 
  15.   friend class StreamResource; 
  16. }; 

StreamListener是一個(gè)負(fù)責(zé)消費(fèi)流數(shù)據(jù)的類(lèi)。StreamListener 和StreamResource類(lèi)的關(guān)系如下。

null我們看到一個(gè)流可以注冊(cè)多個(gè)listener,多個(gè)listener形成一個(gè)鏈表。接著我們看一下創(chuàng)建一個(gè)c++層的tcp對(duì)象是怎樣的。下面是TCPWrap的繼承關(guān)系。

  1. class TCPWrap : public ConnectionWrap<TCPWrap, uv_tcp_t>{} 
  2. class ConnectionWrap : public LibuvStreamWrap{} 
  3. class LibuvStreamWrap : public HandleWrap, public StreamBase{} 
  4. class StreamBase : public StreamResource {} 

我們看到tcp流是繼承于StreamResource的。新建一個(gè)tcp的c++的對(duì)象時(shí)(tcp_wrap.cc),會(huì)不斷往上調(diào)用父類(lèi)的構(gòu)造函數(shù),其中在StreamBase中有一個(gè)關(guān)鍵的操作。

  1. inline StreamBase::StreamBase(Environment* env) : env_(env) { 
  2.   PushStreamListener(&default_listener_); 
  3.  
  4. EmitToJSStreamListener default_listener_; 

StreamBase會(huì)默認(rèn)給流注冊(cè)一個(gè)listener。我們看下EmitToJSStreamListener 具體的定義。

  1. class ReportWritesToJSStreamListener : public StreamListener { 
  2.  public
  3.   void OnStreamAfterWrite(WriteWrap* w, int status) override; 
  4.   void OnStreamAfterShutdown(ShutdownWrap* w, int status) override; 
  5.  
  6.  private: 
  7.   void OnStreamAfterReqFinished(StreamReq* req_wrap, int status); 
  8. }; 
  9.  
  10. class EmitToJSStreamListener : public ReportWritesToJSStreamListener { 
  11.  public
  12.   uv_buf_t OnStreamAlloc(size_t suggested_size) override; 
  13.   void OnStreamRead(ssize_t nread, const uv_buf_t& buf) override; 
  14. }; 

EmitToJSStreamListener繼承StreamListener ,定義了分配內(nèi)存和讀取接收數(shù)據(jù)的函數(shù)。接著我們看一下PushStreamListener做了什么事情。

  1. inline void StreamResource::PushStreamListener(StreamListener* listener) { 
  2.   // 頭插法  
  3.   listener->previous_listener_ = listener_; 
  4.   listener->stream_ = this; 
  5.   listener_ = listener; 

PushStreamListener就是構(gòu)造出上圖的結(jié)構(gòu)。對(duì)應(yīng)到創(chuàng)建一個(gè)c++層的tcp對(duì)象中,如下圖。

然后我們看一下對(duì)于流來(lái)說(shuō),讀取數(shù)據(jù)的整個(gè)鏈路。首先是js層調(diào)用readStart

  1. function tryReadStart(socket) { 
  2.   socket._handle.reading = true
  3.   const err = socket._handle.readStart(); 
  4.   if (err) 
  5.     socket.destroy(errnoException(err, 'read')); 
  6.  
  7. // 注冊(cè)等待讀事件 
  8. Socket.prototype._read = function(n) { 
  9.   tryReadStart(this); 
  10. }; 

我們看看readStart

  1. int LibuvStreamWrap::ReadStart() { 
  2.   return uv_read_start(stream(), [](uv_handle_t* handle, 
  3.                                     size_t suggested_size, 
  4.                                     uv_buf_t* buf) { 
  5.     static_cast<LibuvStreamWrap*>(handle->data)->OnUvAlloc(suggested_size, buf); 
  6.   }, [](uv_stream_t* stream, ssize_t nread, const uv_buf_t* buf) { 
  7.     static_cast<LibuvStreamWrap*>(stream->data)->OnUvRead(nread, buf); 
  8.   }); 

ReadStart調(diào)用libuv的uv_read_start注冊(cè)等待可讀事件,并且注冊(cè)了兩個(gè)回調(diào)函數(shù)OnUvAlloc和OnUvRead。

  1. void LibuvStreamWrap::OnUvRead(ssize_t nread, const uv_buf_t* buf) { 
  2.    EmitRead(nread, *buf); 
  3.  
  4. inline void StreamResource::EmitRead(ssize_t nread, const uv_buf_t& buf) { 
  5.   // bytes_read_表示已讀的字節(jié)數(shù) 
  6.   if (nread > 0) 
  7.     bytes_read_ += static_cast<uint64_t>(nread); 
  8.   listener_->OnStreamRead(nread, buf); 

通過(guò)層層調(diào)用最后會(huì)調(diào)用listener_的OnStreamRead。我們看看tcp的OnStreamRead

  1. void EmitToJSStreamListener::OnStreamRead(ssize_t nread, const uv_buf_t& buf_) { 
  2.   StreamBase* stream = static_cast<StreamBase*>(stream_); 
  3.   Environment* env = stream->stream_env(); 
  4.   HandleScope handle_scope(env->isolate()); 
  5.   Context::Scope context_scope(env->context()); 
  6.   AllocatedBuffer buf(env, buf_); 
  7.   stream->CallJSOnreadMethod(nread, buf.ToArrayBuffer()); 

繼續(xù)回調(diào)CallJSOnreadMethod

  1. MaybeLocal<Value> StreamBase::CallJSOnreadMethod(ssize_t nread, 
  2.                                                  Local<ArrayBuffer> ab, 
  3.                                                  size_t offset, 
  4.                                                  StreamBaseJSChecks checks) { 
  5.   Environment* env = env_; 
  6.   // ... 
  7.   AsyncWrap* wrap = GetAsyncWrap(); 
  8.   CHECK_NOT_NULL(wrap); 
  9.   Local<Value> onread = wrap->object()->GetInternalField(kOnReadFunctionField); 
  10.   CHECK(onread->IsFunction()); 
  11.   return wrap->MakeCallback(onread.As<Function>(), arraysize(argv), argv); 

CallJSOnreadMethod會(huì)回調(diào)js層的onread回調(diào)函數(shù)。onread會(huì)把數(shù)據(jù)push到流中,然后觸發(fā)data事件。這是tcp里默認(rèn)的數(shù)據(jù)讀取過(guò)程。而文章開(kāi)頭講到的parser.consume打破了這個(gè)默認(rèn)行為。stream->PushStreamListener(parser);修改了tcp流的listener鏈,http parser把自己作為數(shù)據(jù)的接收者。所以這時(shí)候tcp流上的數(shù)據(jù)是直接由node_http_parser.cc的OnStreamRead消費(fèi)的。而不是觸發(fā)socket的data事件,最后通過(guò)在nodejs源碼中加log,重新編譯驗(yàn)證的確如文中所述。最后提一個(gè)這個(gè)過(guò)程中還有一個(gè)關(guān)鍵的地方是調(diào)用consume函數(shù)的前提是socket._handle.isStreamBase為true。isStreamBase是在StreamBase::AddMethods中定義為true的,而tcp對(duì)象創(chuàng)建的過(guò)程中,調(diào)用了這個(gè)方法,所以tcp的isStreamBase是true,才會(huì)執(zhí)行consume,才會(huì)執(zhí)行kOnExecute回調(diào)。

References

[1] 帖子: http://cache.baiducontent.com/c?m=rZy2XovtTdJJuXWLM-s8wgpaz8NFubewtolyiC19iAKFJrbGdx2EFnArzlAIDisNP70zWWsCPv-4jwMHTGNcLaUsMVr-lvLqYmmHD-w_fUYz6a5K6OQRC9kZmLYN5RXsb34OdINb8xHIJsdyClaEWOtCGKMQ2saYK7ed7OG8v0E1pRKR4K46phl0rCBrw6amXE3QpPo62dMhvu_VASYYqq&p=cb77c64ad49111a05bee9e264d5693&newp=882a9646dc9712a05ab7cc374f0ccc231615d70e3ad3d501298ffe0cc4241a1a1a3aecbf2d29170ed6c27f630bae4856ecf630723d0834f1f689df08d2ecce7e7b&s=cfcd208495d565ef&user=baidu&fm=sc&query=onParserExecute&qid=869f73bc002e44f5&p1=11

 

責(zé)任編輯:武曉燕 來(lái)源: 編程雜技
相關(guān)推薦

2013-01-17 10:31:13

JavaScriptWeb開(kāi)發(fā)firebug

2013-04-01 10:27:37

程序員失業(yè)

2021-01-22 05:35:19

Lvm模塊Multipath

2012-08-28 09:21:59

Ajax查錯(cuò)經(jīng)歷Web

2020-02-10 10:15:31

技術(shù)研發(fā)指標(biāo)

2018-12-06 16:25:39

數(shù)據(jù)庫(kù)服務(wù)器線程池

2021-01-08 13:52:15

Consul微服務(wù)服務(wù)注冊(cè)中心

2023-03-31 09:22:40

Hi3861芯片Flash

2021-12-06 19:29:17

LRU內(nèi)存算法

2023-03-29 09:36:32

2025-03-17 10:01:07

2014-08-06 11:24:24

Elasticsear劫持掛馬

2021-04-13 18:17:48

Hbase集群配置

2011-08-08 13:31:44

數(shù)據(jù)分析數(shù)據(jù)倉(cāng)庫(kù)

2011-04-13 09:21:30

死鎖SQL Server

2016-12-06 09:34:33

線程框架經(jīng)歷

2023-06-26 00:12:46

2024-12-27 13:31:18

.NETdump調(diào)試

2021-11-11 16:14:04

Kubernetes

2024-03-28 12:56:36

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)