自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Dubbo中的連接控制,你真的理解嗎?

網(wǎng)絡(luò) 通信技術(shù)
dubbo 協(xié)議通信默認(rèn)是長(zhǎng)連接,連接配置功能用于決定消費(fèi)者與提供者建立的長(zhǎng)連接數(shù)。但官方文檔只給出了該功能的使用方法,卻并沒(méi)有說(shuō)明什么時(shí)候應(yīng)該配置連接控制,本文將主要圍繞該話題進(jìn)行探討。

[[422543]]

本文轉(zhuǎn)載自微信公眾號(hào)「Kirito的技術(shù)分享」,作者kiritomoe。轉(zhuǎn)載本文請(qǐng)聯(lián)系Kirito的技術(shù)分享公眾號(hào)。

前言

剛發(fā)現(xiàn)微信公眾號(hào)有了標(biāo)簽功能,于是乎,我將我 Dubbo 相關(guān)的文章都打上了標(biāo)簽,仔細(xì)一統(tǒng)計(jì),這已經(jīng)是我第 41 篇原創(chuàng)的 Dubbo 文章了,如果你希望看到我其他的 Dubbo 文章,可以從話題標(biāo)簽點(diǎn)擊進(jìn)入。

這是一篇很久之前就想動(dòng)筆寫(xiě)的文章,最近正好看到群里有小伙伴分享了 Dubbo 連接相關(guān)的文章,才又讓我想起了這個(gè)話題。今天想跟大家聊的便是 Dubbo 中的連接控制這一話題。說(shuō)到“連接控制”,可能有讀者還沒(méi)反應(yīng)過(guò)來(lái),但你對(duì)下面的配置可能不會(huì)感到陌生:

  1. <dubbo:reference interface="com.foo.BarService" connections="10" /> 

如果你還不了解 Dubbo 中連接控制的用法,可以參考官方文檔:https://dubbo.apache.org/zh/docs/advanced/config-connections/ ,話說(shuō)最近 Dubbo 官方文檔來(lái)了一次大換血,好多熟悉的文檔差點(diǎn)都沒(méi)找到在哪兒 Orz。

眾所周知,dubbo 協(xié)議通信默認(rèn)是長(zhǎng)連接,連接配置功能用于決定消費(fèi)者與提供者建立的長(zhǎng)連接數(shù)。但官方文檔只給出了該功能的使用方法,卻并沒(méi)有說(shuō)明什么時(shí)候應(yīng)該配置連接控制,本文將主要圍繞該話題進(jìn)行探討。

本文也會(huì)涉及長(zhǎng)連接相關(guān)的一些知識(shí)點(diǎn)。

##使用方式

先來(lái)看一個(gè) Dubbo 構(gòu)建的簡(jiǎn)單 demo,啟動(dòng)一個(gè)消費(fèi)者(192.168.4.226)和一個(gè)提供者(192.168.4.224),配置他們的直連。

消費(fèi)者:

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://192.168.4.224:20880"/> 

提供者:

  1. <dubbo:service interface="org.apache.dubbo.benchmark.service.UserService" ref="userService" /> 
  2. <bean id="userService" class="org.apache.dubbo.benchmark.service.UserServiceServerImpl"/> 

長(zhǎng)連接是看不見(jiàn)摸不著的東西,我們需要一個(gè)觀測(cè)性工作來(lái)”看到“它。啟動(dòng)提供者和消費(fèi)者之后,可以使用如下的命令查看 tcp 連接情況

  • Mac 下可使用:lsof -i:20880
  • Linux 下可使用:netstat -ano | grep 20880

提供者:

  1. [root ~]# netstat -ano | grep 20880 
  2. tcp6       0      0 192.168.4.224:20880      :::*                    LISTEN      off (0.00/0/0) 
  3. tcp6    2502      0 192.168.4.224:20880      192.168.4.226:59100     ESTABLISHED off (0.00/0/0) 

消費(fèi)者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6     320    720 192.168.4.226:59110     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 

通過(guò)上述觀察到的現(xiàn)象我們可以發(fā)現(xiàn)幾個(gè)事實(shí)。

僅僅是啟動(dòng)了提供者和消費(fèi)者,上述的 TCP 連接就已經(jīng)了存在,要知道我并沒(méi)有觸發(fā)調(diào)用。也就是說(shuō),Dubbo 建連的默認(rèn)策略是在地址發(fā)現(xiàn)時(shí),而不是在調(diào)用時(shí)。當(dāng)然,你也可以通過(guò)延遲加載 lazy="true" 來(lái)修改這一行為,這樣可以將建聯(lián)延遲到調(diào)用時(shí)。

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://${server.host}:${server.port}" 
  4.     lazy="true"/> 

除此之外,還可以發(fā)現(xiàn)消費(fèi)者和提供者之間只有一條長(zhǎng)連接,20880 是 Dubbo 提供者默認(rèn)開(kāi)放的端口,就跟 tomcat 默認(rèn)開(kāi)放的 8080 一個(gè)地位,而 59110 是消費(fèi)者隨機(jī)生成的一個(gè)端口。(我之前跟一些朋友交流過(guò),發(fā)現(xiàn)很多人不知道消費(fèi)者也是需要占用一個(gè)端口的)

而今天的主角”連接控制“便可以控制長(zhǎng)連接的數(shù)量,例如我們可以進(jìn)行如下的配置

  1. <dubbo:reference id="userService" check="false" 
  2.     interface="org.apache.dubbo.benchmark.service.UserService" 
  3.     url="dubbo://192.168.4.224:20880" 
  4.     connections="2" /> 

再啟動(dòng)一次消費(fèi)者,觀察長(zhǎng)連接情況

提供者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6       0      0 192.168.4.224:20880      :::*                    LISTEN      off (0.00/0/0) 
  3. tcp6    2508     96 192.168.4.224:20880      192.168.4.226:59436     ESTABLISHED on (0.00/0/0) 
  4. tcp6    5016    256 192.168.4.224:20880      192.168.4.226:59434     ESTABLISHED on (0.00/0/0) 

消費(fèi)者:

  1. [root@ ~]# netstat -ano | grep 20880 
  2. tcp6       0   2520 192.168.4.226:59436     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 
  3. tcp6      48   1680 192.168.4.226:59434     192.168.4.224:20880      ESTABLISHED on (0.00/0/0) 

可以看到,這里已經(jīng)變成了兩條長(zhǎng)連接了。

什么時(shí)候需要配置多條長(zhǎng)連接

現(xiàn)在我們知道了如何進(jìn)行連接控制,但什么時(shí)候我們應(yīng)該配置多少條長(zhǎng)連接呢?這個(gè)時(shí)候我可以跟你說(shuō),具體視生產(chǎn)情況而定,但你如果你經(jīng)常看我的公眾號(hào),肯定會(huì)知道這不是我的風(fēng)格,我的風(fēng)格是什么?benchmark!

寫(xiě)作之前,我跟幾個(gè)同事和網(wǎng)友對(duì)這個(gè)話題進(jìn)行了簡(jiǎn)單的討論,其實(shí)也沒(méi)有什么定論,無(wú)非是對(duì)單連接和多連接吞吐量高低不同的論調(diào)。參考既往 Dubbo github 中的 issue,例如:https://github.com/apache/dubbo/pull/2457,我也參與了這個(gè) pr 的討論,講道理,我是持懷疑態(tài)度的,我當(dāng)時(shí)的觀點(diǎn)是多連接不一定能夠提升服務(wù)的吞吐量(還是挺保守的,沒(méi)有這么絕對(duì))。

那接下來(lái),還是用 benchmark 來(lái)說(shuō)話吧,測(cè)試工程還是我們的老朋友,使用 Dubbo 官方提供的 dubbo-benchmark 工程。

  • 測(cè)試工程地址:https://github.com/apache/dubbo-benchmark.git
  • 測(cè)試環(huán)境:2 臺(tái)阿里云 Linux 4c8g ECS

測(cè)試工程在之前的文章介紹過(guò),這里就不過(guò)多贅述了,測(cè)試方案也非常簡(jiǎn)單,兩輪 benchmark,分別測(cè)試 connections=1 和 connections=2 時(shí),觀察測(cè)試方法的吞吐量。

說(shuō)干就干,省略一堆測(cè)試步驟,直接給出測(cè)試結(jié)果。

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  22265.286 ± 3060.319  ops/s 
  3. Client.existUser   thrpt    3  33129.331 ± 1488.404  ops/s 
  4. Client.getUser     thrpt    3  19916.133 ± 1745.249  ops/s 
  5. Client.listUser    thrpt    3   3523.905 ±  590.250  ops/s 

connections=2

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  31111.698 ± 3039.052  ops/s 
  3. Client.existUser   thrpt    3  42449.230 ± 2964.239  ops/s 
  4. Client.getUser     thrpt    3  30647.173 ± 2551.448  ops/s 
  5. Client.listUser    thrpt    3   6581.876 ±  469.831  ops/s 

從測(cè)試結(jié)果來(lái)看,似乎單連接和多連接的差距是非常大的,近乎可以看做是 2 倍了!看起來(lái)連接控制的效果真是好呀,那么事實(shí)真的如此嗎?

按照這種方案第一次測(cè)試下來(lái)之后,我也不太相信這個(gè)結(jié)果,因?yàn)槲抑鞍凑掌渌绞阶鲞^(guò)多連接的測(cè)試,并且我也參加過(guò)第三屆中間件挑戰(zhàn)賽,使得我對(duì)長(zhǎng)連接的認(rèn)知是:大多數(shù)時(shí)候,單連接往往能發(fā)揮出最優(yōu)的性能。即使由于硬件原因,這個(gè)差距也不應(yīng)該是兩倍。懷著這樣的疑問(wèn),我開(kāi)始研究,是不是我的測(cè)試場(chǎng)景出了什么問(wèn)題呢?

發(fā)現(xiàn)測(cè)試方案的問(wèn)題

經(jīng)過(guò)和閃電俠的討論,他的一席話最終讓我定位到了問(wèn)題的所在。

不知道大家看完我和閃電俠的對(duì)話,有沒(méi)有立刻定位到問(wèn)題所在。

之前測(cè)試方案最大的問(wèn)題便是沒(méi)有控制好變量,殊不知:在連接數(shù)變化的同時(shí),實(shí)際使用的 IO 線程數(shù)實(shí)際也發(fā)生了變化。

Dubbo 使用 Netty 來(lái)實(shí)現(xiàn)長(zhǎng)連接通信,提到長(zhǎng)連接和 IO 線程的關(guān)系,這里就要介紹到 Netty 的連接模型了。一言以蔽之,Netty 的設(shè)置 IO worker 線程和 channel 是一對(duì)多的綁定關(guān)系,即一個(gè) channel 在建連之后,便會(huì)完全由一個(gè) IO 線程來(lái)負(fù)責(zé)全部的 IO 操作。再來(lái)看看 Dubbo 是如何設(shè)置 NettyClient 和 NettyServer 的 worker 線程組的:

客戶(hù)端 org.apache.dubbo.remoting.transport.netty4.NettyClient:

  1. private static final EventLoopGroup NIO_EVENT_LOOP_GROUP = eventLoopGroup(Constants.DEFAULT_IO_THREADS, "NettyClientWorker"); 
  2.    
  3.   @Override 
  4.   protected void doOpen() throws Throwable { 
  5.       final NettyClientHandler nettyClientHandler = new NettyClientHandler(getUrl(), this); 
  6.       bootstrap = new Bootstrap(); 
  7.       bootstrap.group(NIO_EVENT_LOOP_GROUP) 
  8.               .option(ChannelOption.SO_KEEPALIVE, true
  9.               .option(ChannelOption.TCP_NODELAY, true
  10.               .option(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT); 
  11.     ... 
  12.   } 

Constants.DEFAULT_IO_THREADS 在 org.apache.dubbo.remoting.Constants 中被寫(xiě)死了

  1. int DEFAULT_IO_THREADS = Math.min(Runtime.getRuntime().availableProcessors() + 1, 32); 

在我的 4c8g 的機(jī)器上,默認(rèn)等于 5。

服務(wù)端 org.apache.dubbo.remoting.transport.netty4.NettyServer:

  1. protected void doOpen() throws Throwable { 
  2.         bootstrap = new ServerBootstrap(); 
  3.  
  4.         bossGroup = NettyEventLoopFactory.eventLoopGroup(1, "NettyServerBoss"); 
  5.         workerGroup = NettyEventLoopFactory.eventLoopGroup( 
  6.                 getUrl().getPositiveParameter(IO_THREADS_KEY, Constants.DEFAULT_IO_THREADS), 
  7.                 "NettyServerWorker"); 
  8.  
  9.         final NettyServerHandler nettyServerHandler = new NettyServerHandler(getUrl(), this); 
  10.         channels = nettyServerHandler.getChannels(); 
  11.  
  12.         ServerBootstrap serverBootstrap = bootstrap.group(bossGroup, workerGroup) 
  13.             .channel(NettyEventLoopFactory.serverSocketChannelClass()); 
  14.         .option(ChannelOption.SO_REUSEADDR, Boolean.TRUE
  15.                 .childOption(ChannelOption.TCP_NODELAY, Boolean.TRUE
  16.                 .childOption(ChannelOption.ALLOCATOR, PooledByteBufAllocator.DEFAULT); 
  17.                  
  18.  } 

服務(wù)端倒是可以配置,例如我們可以通過(guò) protocol 來(lái)控制服務(wù)端的 IO 線程數(shù):

  1. <dubbo:protocol name="dubbo" host="${server.host}" server="netty4" port="${server.port}" iothreads="5"/> 

如果不設(shè)置,則跟客戶(hù)端邏輯一致,是 core + 1 個(gè)線程。

好了,問(wèn)題就在這兒,由于我并沒(méi)有進(jìn)行任何 IO 線程的設(shè)置,所以客戶(hù)端和服務(wù)端都會(huì)默認(rèn)開(kāi)啟 5 個(gè) IO 線程。當(dāng) connections=1 時(shí),Netty 會(huì)將 channel1 綁定到一個(gè) IO 線程上,而當(dāng) connections=2 時(shí),Netty 會(huì)將 channel1 和 channel2 按照順序綁定到 NettyWorkerThread-1和 NettyWorkerThread-2 上,這樣就會(huì)有兩個(gè) IO 線程在工作,這樣的測(cè)試結(jié)果當(dāng)然是不公平的。

這里需要考慮實(shí)際情況,在實(shí)際生產(chǎn)中,大多數(shù)時(shí)候都是分布式場(chǎng)景,連接數(shù)一定都是大于 IO 線程數(shù)的,所以基本不會(huì)出現(xiàn)測(cè)試場(chǎng)景中的 channel 數(shù)少于 IO 線程數(shù)的場(chǎng)景。

解決方案也很簡(jiǎn)單,我們需要控制變量,讓 IO 線程數(shù)一致,僅僅觀察連接數(shù)對(duì)吞吐量的影響。針對(duì)服務(wù)端,可以在 protocol 層配置 iothreads=1;針對(duì)客戶(hù)端,由于源碼被寫(xiě)死了,這里我只能通過(guò)修改源碼的方式,重新本地打了一個(gè)包,使得客戶(hù)端 IO 線程數(shù)也可以通過(guò) -D 參數(shù)指定。

改造之后的,我們得到了如下的測(cè)試結(jié)果:

1 IO 線程 1 連接

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  22265.286 ± 3060.319  ops/s 
  3. Client.existUser   thrpt    3  33129.331 ± 1488.404  ops/s 
  4. Client.getUser     thrpt    3  19916.133 ± 1745.249  ops/s 
  5. Client.listUser    thrpt    3   3523.905 ±  590.250  ops/s 

1 IO 線程 2 連接

  1. Benchmark           Mode  Cnt      Score      Error  Units 
  2. Client.createUser  thrpt    3  21776.436 ± 1888.845  ops/s 
  3. Client.existUser   thrpt    3  31826.320 ± 1350.434  ops/s 
  4. Client.getUser     thrpt    3  19354.470 ±  369.486  ops/s 
  5. Client.listUser    thrpt    3   3506.714 ±   18.924  ops/s 

可以發(fā)現(xiàn),單純提升連接數(shù)并不會(huì)提升服務(wù)的吞吐量,這樣的測(cè)試結(jié)果也更加符合我認(rèn)知的預(yù)期。

總結(jié)

從上述測(cè)試的結(jié)果來(lái)看,一些配置參數(shù)并不是越大就代表了越好,類(lèi)似的例子我也在多線程寫(xiě)文件等場(chǎng)景分析過(guò),唯有理論分析+實(shí)際測(cè)試才能得出值得信服的結(jié)論。當(dāng)然個(gè)人的測(cè)試,也可能會(huì)因?yàn)榫植啃躁P(guān)鍵信息的遺漏,導(dǎo)致誤差,例如,如果我最終沒(méi)有發(fā)現(xiàn) IO 線程數(shù)和連接數(shù)之間的隱性關(guān)聯(lián),很容易就得出連接數(shù)和吞吐量成正比的錯(cuò)誤結(jié)論了。當(dāng)然,也不一定就代表本文最終的結(jié)論是靠譜的,說(shuō)不定還是不夠完善的,也歡迎大家留言,提出意見(jiàn)和建議。

最終回到最初的問(wèn)題,我們什么時(shí)候應(yīng)該配置 Dubbo 的連接控制呢?按照我個(gè)人的經(jīng)驗(yàn),大多數(shù)時(shí)候,生產(chǎn)環(huán)境下連接數(shù)是非常多的,你可以挑選一臺(tái)線上的主機(jī),通過(guò) netstat -ano| grep 20880| wc -l 來(lái)大概統(tǒng)計(jì)下,一般是遠(yuǎn)超 IO 線程數(shù)的,沒(méi)必要再多配置成倍的連接數(shù),連接數(shù)和吞吐量并不是一個(gè)線性增長(zhǎng)的關(guān)系。

Dubbo 框架有這個(gè)能力和大家真的需要用這個(gè)能力完全是兩碼事,我相信大多數(shù)讀者應(yīng)該已經(jīng)過(guò)了技術(shù)新鮮感驅(qū)動(dòng)項(xiàng)目的階段了吧?如果有一天你需要控制連接數(shù),去達(dá)到一定特殊的用途,你就會(huì)真心感嘆,Dubbo 真是強(qiáng)呀,這個(gè)擴(kuò)展點(diǎn)都有。

Dubbo 的連接控制真的完全沒(méi)有用嗎?也不盡然,我的測(cè)試場(chǎng)景還是非常有限的,可能在不同硬件上會(huì)跑出不一樣的效果,例如我在第三屆中間件性能挑戰(zhàn)賽中,就是用 2 連接跑出了最好的成績(jī),并非單連接。

 

最后,你如果僅僅使用 Dubbo 去維系你們的微服務(wù)架構(gòu),大部分情況不需要關(guān)注到連接控制這個(gè)特性,多花點(diǎn)時(shí)間搬磚吧,就醬,我也去搬磚了。

 

責(zé)任編輯:武曉燕 來(lái)源: Kirito的技術(shù)分享
相關(guān)推薦

2021-04-23 07:27:31

內(nèi)存分配CPU

2018-08-20 08:30:05

Kafka架構(gòu)系統(tǒng)

2018-03-21 16:19:40

MVCMVPMVVM

2018-11-20 09:37:19

Java內(nèi)存模型

2022-09-22 14:55:31

前端JavaScripthis

2022-09-26 13:10:17

JavaScriptthis

2022-01-05 12:03:48

MySQL索引數(shù)據(jù)

2021-11-26 08:07:16

MySQL SQL 語(yǔ)句數(shù)據(jù)庫(kù)

2018-09-29 15:34:34

JavaList接口

2020-06-04 14:15:55

Java中BigDecimal函數(shù)

2018-07-05 14:25:01

TCP握手原理

2023-05-17 08:52:56

Java原子性可見(jiàn)性

2018-12-21 11:24:55

Java時(shí)間處理編程語(yǔ)言

2023-10-16 10:29:51

mysqlMVCC

2023-10-07 08:21:35

PyQtPython

2016-06-01 15:42:58

Hadoop數(shù)據(jù)管理分布式

2020-06-29 08:32:21

高并發(fā)程序員流量

2020-04-17 14:25:22

Kubernetes應(yīng)用程序軟件開(kāi)發(fā)

2022-07-26 00:00:22

HTAP系統(tǒng)數(shù)據(jù)庫(kù)

2014-04-17 16:42:03

DevOps
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)