自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

網(wǎng)絡(luò) 通信技術(shù)
當(dāng)一個(gè)連接關(guān)閉時(shí),TCP會通過四次揮手來完成一次關(guān)閉連接操作,在請求量比較大的情況下,消費(fèi)端會有大量TIME_WAIT狀態(tài)的連接,該參數(shù)可以限制TIME_WAIT狀態(tài)的連接數(shù)量,如果TIME_WAIT的連接數(shù)量超過該值,TIME_WAIT將會立即被清除掉并打印警告信息。

[[277794]]

 服務(wù)框架的核心

  1. 大型服務(wù)框架的核心:RPC通信
  2. 微服務(wù)的核心是遠(yuǎn)程通信和服務(wù)治理
  • 遠(yuǎn)程通信提供了服務(wù)之間通信的橋梁,服務(wù)治理提供了服務(wù)的后勤保障

服務(wù)的拆分增加了通信的成本,因此遠(yuǎn)程通信很容易成為系統(tǒng)瓶頸

  • 在滿足一定的服務(wù)治理需求的前提下,對遠(yuǎn)程通信的性能需求是技術(shù)選型的主要影響因素

很多微服務(wù)框架中的服務(wù)通信是基于RPC通信實(shí)現(xiàn)的

  • 在沒有進(jìn)行組件擴(kuò)展的前提下,Spring Cloud是基于Feign組件實(shí)現(xiàn)RPC通信(基于HTTP+JSON序列化)
  • Dubbo是基于SPI擴(kuò)展了很多RPC通信框架,包括RMI、Dubbo、Hessian等(默認(rèn)為Dubbo+Hessian序列化)

性能測試

基于Dubbo:2.6.4,單一TCP長連接+Protobuf(響應(yīng)時(shí)間和吞吐量更優(yōu)),短連接的HTTP+JSON序列化

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

RPC通信

架構(gòu)演化

無論是微服務(wù)、SOA、還是RPC架構(gòu),都是分布式服務(wù)架構(gòu),都需要實(shí)現(xiàn)服務(wù)之間的互相通信,通常把這種通信統(tǒng)稱為RPC通信

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

概念

  1. RPC:Remote Process Call,遠(yuǎn)程服務(wù)調(diào)用,通過網(wǎng)絡(luò)請求遠(yuǎn)程計(jì)算機(jī)程序服務(wù)的通信技術(shù)
  2. RPC框架封裝了底層網(wǎng)絡(luò)通信和序列化等技術(shù)
  3. 只需要在項(xiàng)目中引入各個(gè)服務(wù)的接口包,就可以在代碼中調(diào)用RPC服務(wù)(如同調(diào)用本地方法一樣)

RMI

  1. RMI:Remote Method Invocation
  2. RMI是JDK自帶的RPC通信框架,已經(jīng)成熟地應(yīng)用于EJB和Spring,是純Java網(wǎng)絡(luò)分布式應(yīng)用系統(tǒng)的核心解決方案
  3. RMI實(shí)現(xiàn)了一臺虛擬機(jī)應(yīng)用對遠(yuǎn)程方法的調(diào)用可以同對本地方法調(diào)用一樣,RMI封裝好了遠(yuǎn)程通信的具體細(xì)節(jié)

實(shí)現(xiàn)原理

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

RMI遠(yuǎn)程代理對象是RMI中最核心的組件,除了對象本身所在的虛擬機(jī),其他虛擬機(jī)也可以調(diào)用此對象的方法

這些虛擬機(jī)可以分布在不同的主機(jī)上,通過遠(yuǎn)程代理對象,遠(yuǎn)程應(yīng)用可以用網(wǎng)絡(luò)協(xié)議和服務(wù)進(jìn)行通信

高并發(fā)下的性能瓶頸

Java默認(rèn)序列化

RMI的序列化方式采用的是Java默認(rèn)序列化,性能不好,而且不支持跨語言

TCP短連接

RMI是基于TCP短連接實(shí)現(xiàn)的,在高并發(fā)情況下,大量請求會帶來大量TCP連接的創(chuàng)建和銷毀,非常消耗性能

阻塞式網(wǎng)絡(luò)IO

Socket編程中使用傳統(tǒng)的IO模型,在高并發(fā)場景下基于短連接實(shí)現(xiàn)的網(wǎng)絡(luò)通信就很容易產(chǎn)生IO阻塞,性能將大打折扣

優(yōu)化路徑

TCP / UDP

網(wǎng)絡(luò)傳輸協(xié)議有TCP和UDP,兩個(gè)協(xié)議都是基于Socket編程

基于TCP協(xié)議實(shí)現(xiàn)的Socket通信是有連接的

傳輸數(shù)據(jù)要通過三次握手來實(shí)現(xiàn)數(shù)據(jù)傳輸?shù)目煽啃裕鴤鬏敂?shù)據(jù)是沒有邊界的,采用的是字節(jié)流模式

基于UDP協(xié)議實(shí)現(xiàn)的Socket通信,客戶端不需要建立連接,只需要?jiǎng)?chuàng)建一個(gè)套接字發(fā)送數(shù)據(jù)給服務(wù)端

基于UDP協(xié)議實(shí)現(xiàn)的Socket通信具有不可靠性

UDP發(fā)送的數(shù)據(jù)采用的是數(shù)據(jù)報(bào)模式,每個(gè)UDP的數(shù)據(jù)報(bào)都有一個(gè)長度,該長度與數(shù)據(jù)一起發(fā)送到服務(wù)端

為了保證數(shù)據(jù)傳輸?shù)目煽啃?,通常情況下會采用TCP協(xié)議

在局域網(wǎng)且對數(shù)據(jù)傳輸?shù)目煽啃詻]有要求的情況下,可以考慮使用UDP協(xié)議,UDP協(xié)議的效率比TCP協(xié)議高

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

長連接

服務(wù)之間的通信不同于客戶端與服務(wù)端之間的通信

由于客戶端數(shù)量眾多,基于短連接實(shí)現(xiàn)請求,可以避免長時(shí)間地占用連接,導(dǎo)致系統(tǒng)資源浪費(fèi)

服務(wù)之間的通信,連接的消費(fèi)端不會像客戶端那么多,但消費(fèi)端向服務(wù)端請求的數(shù)量卻一樣多

基于長連接實(shí)現(xiàn),可以省去大量建立TCP連接和關(guān)閉TCP連接的操作,從而減少系統(tǒng)的性能消耗,節(jié)省時(shí)間

優(yōu)化Socket通信

傳統(tǒng)的Socket通信主要存在IO阻塞,線程模型缺陷以及內(nèi)存拷貝等問題,Netty4對Socket通信編程做了很多方面的優(yōu)化

實(shí)現(xiàn)非阻塞IO:多路復(fù)用器Selector實(shí)現(xiàn)了非阻塞IO通信

高效的Reactor線程模型

Netty使用了主從Reactor多線程模型

主線程:用于客戶端的連接請求操作,一旦連接建立成功,將會監(jiān)聽IO事件,監(jiān)聽到事件后會創(chuàng)建一個(gè)鏈路請求

鏈路請求將會注冊到負(fù)責(zé)IO操作的IO工作線程上,由IO工作線程負(fù)責(zé)后續(xù)的IO操作

Reactor線程模型解決了在高并發(fā)的情況下,由于單個(gè)NIO線程無法監(jiān)聽海量客戶端和滿足大量IO操作造成的問題

4.串行設(shè)計(jì)

服務(wù)端在接收消息之后,存在著編碼、解碼、讀取和發(fā)送等鏈路操作

如果這些操作基于并行實(shí)現(xiàn),無疑會導(dǎo)致嚴(yán)重的鎖競爭,進(jìn)而導(dǎo)致系統(tǒng)的性能下降

為了提升性能,Netty采用串行無鎖化完成鏈路操作,提供了Pipeline,實(shí)現(xiàn)鏈路的各個(gè)操作在運(yùn)行期間不會切換線程

5.零拷貝

數(shù)據(jù)從內(nèi)存發(fā)到網(wǎng)絡(luò)中,存在兩次拷貝,先是從用戶空間拷貝到內(nèi)核空間,再從內(nèi)核空間拷貝到網(wǎng)絡(luò)IO

NIO提供的ByteBuffer可以使用Direct Buffer模式

直接開辟一個(gè)非堆物理內(nèi)存,不需要進(jìn)行字節(jié)緩沖區(qū)的二次拷貝,可以直接將數(shù)據(jù)寫入到內(nèi)核空間

6.優(yōu)化TCP參數(shù)配置,提高網(wǎng)絡(luò)吞吐量,Netty可以基于ChannelOption來設(shè)置

  • TCP_NODELAY:用于控制是否開啟Nagle算法
  • Nagle算法通過緩存的方式將小的數(shù)據(jù)包組成一個(gè)大的數(shù)據(jù)包,從而避免大量發(fā)送小的數(shù)據(jù)包,導(dǎo)致網(wǎng)絡(luò)阻塞
  • 在對時(shí)延敏感的應(yīng)用場景,可以選擇關(guān)閉該算法
  • SO_RCVBUF / SO_SNDBUF:Socket接收緩沖區(qū)和發(fā)送緩沖區(qū)的大小
  • SO_BACKLOG:指定客戶端連接請求緩沖隊(duì)列的大小
  • 服務(wù)端處理客戶端連接請求是按順序處理的,同一時(shí)間只能處理一個(gè)客戶端連接
  • 當(dāng)有多個(gè)客戶端進(jìn)來的時(shí)候,服務(wù)端將不能處理的客戶端連接請求放在隊(duì)列中等待處理
  • SO_KEEPALIVE
  • 連接會檢查長時(shí)間沒有發(fā)送數(shù)據(jù)的客戶端的連接狀態(tài),檢測到客戶端斷開連接后,服務(wù)端將回收該連接
  • 將該值設(shè)置得小一些,可以提高回收連接的效率

定制報(bào)文格式

設(shè)計(jì)一套報(bào)文,用于描述具體的校驗(yàn)、操作、傳輸數(shù)據(jù)等內(nèi)容

為了提高傳輸效率,可以根據(jù)實(shí)際情況來設(shè)計(jì),盡量實(shí)現(xiàn)報(bào)體小,滿足功能,易解析等特性

字段長度(字節(jié))備注魔數(shù)4協(xié)議的標(biāo)識,類似于字節(jié)碼的魔數(shù),通常為固定數(shù)字版本號1序列化算法1Protobuf / Thrift指令1類似于HTTP中的增刪改查數(shù)據(jù)長度4數(shù)據(jù)N

編解碼

實(shí)現(xiàn)一個(gè)通信協(xié)議,需要兼容優(yōu)秀的序列化框架

如果只是單純的數(shù)據(jù)對象傳輸,可以選擇性能相對較好的Protobuf序列化,有利于提高網(wǎng)絡(luò)通信的性能

Linux的TCP參數(shù)設(shè)置

三次握手

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

四次揮手

 

Java性能之優(yōu)化RPC網(wǎng)絡(luò)通信

 

配置項(xiàng)

1.fs.file-max = 194448 / ulimit

2.net.ipv4.tcp_keepalive_time

3.net.ipv4.tcp_max_syn_backlog

4.net.ipv4.ip_local_port_range

5.net.ipv4.tcp_max_tw_buckets

6.net.ipv4.tcp_tw_reuse

備注

1.Linux默認(rèn)單個(gè)進(jìn)程可以打開的文件數(shù)量上限為1024,Socket也是文件

2.與Netty的SO_KEEPALIVE配置項(xiàng)的作用一致

3.SYN隊(duì)列的長度,加大隊(duì)列長度,可以容納更多等待連接的網(wǎng)絡(luò)連接數(shù)

4.客戶端連接服務(wù)器時(shí),需要?jiǎng)討B(tài)分配源端口號,該配置項(xiàng)表示向外連接的端口范圍

5. 當(dāng)一個(gè)連接關(guān)閉時(shí),TCP會通過四次揮手來完成一次關(guān)閉連接操作,在請求量比較大的情況下,消費(fèi)端會有大量TIME_WAIT狀態(tài)的連接,該參數(shù)可以限制TIME_WAIT狀態(tài)的連接數(shù)量,如果TIME_WAIT的連接數(shù)量超過該值,TIME_WAIT將會立即被清除掉并打印警告信息

6.客戶端每次連接服務(wù)器時(shí),都會獲得一個(gè)新的源端口以實(shí)現(xiàn)連接的唯一性,在TIME_WAIT狀態(tài)的連接數(shù)量過大的情況下,會增加端口號的占用時(shí)間,由于處于TIME_WAIT狀態(tài)的連接屬于關(guān)閉連接,所以新創(chuàng)建的連接可以復(fù)用該端口號

責(zé)任編輯:武曉燕 來源: 今日頭條
相關(guān)推薦

2024-02-20 19:53:57

網(wǎng)絡(luò)通信協(xié)議

2025-01-26 15:44:29

2019-04-29 10:26:49

TCP網(wǎng)絡(luò)協(xié)議網(wǎng)絡(luò)通信

2024-04-26 09:13:34

RPCHTTP協(xié)議

2014-09-16 17:00:02

UDP

2020-07-06 07:52:10

Kubernetes網(wǎng)絡(luò)通信

2021-07-29 14:20:34

網(wǎng)絡(luò)優(yōu)化移動(dòng)互聯(lián)網(wǎng)數(shù)據(jù)存儲

2022-02-16 14:10:51

服務(wù)器性能優(yōu)化Linux

2021-11-29 11:13:45

服務(wù)器網(wǎng)絡(luò)性能

2024-11-05 18:34:27

2020-11-12 08:52:16

Python

2009-08-24 17:20:13

C#網(wǎng)絡(luò)通信TCP連接

2023-03-15 08:17:27

Kafka網(wǎng)絡(luò)通信組件

2022-12-05 09:25:17

Kubernetes網(wǎng)絡(luò)模型網(wǎng)絡(luò)通信

2021-08-30 13:08:56

Kafka網(wǎng)絡(luò)通信

2010-04-22 16:10:48

Aix操作系統(tǒng)網(wǎng)絡(luò)通信

2009-10-16 08:48:08

2010-06-09 11:31:55

網(wǎng)絡(luò)通信協(xié)議

2016-08-25 11:17:16

CaaS華為

2022-05-13 10:59:14

容器網(wǎng)絡(luò)通信
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號