自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

億級(jí)流量架構(gòu)的服務(wù)限流思路與方法

新聞 前端
限流算法很多,常見(jiàn)的有三類(lèi),分別是計(jì)數(shù)器算法、漏桶算法、令牌桶算法,下面逐一講解。

 [[428295]]

為什么要限流

日常生活中,有哪些需要限流的地方?

像我旁邊有一個(gè)國(guó)家景區(qū),平時(shí)可能根本沒(méi)什么人前往,但是一到五一或者春節(jié)就人滿(mǎn)為患,這時(shí)候景區(qū)管理人員就會(huì)實(shí)行一系列的政策來(lái)限制進(jìn)入人流量。

為什么要限流呢?假如景區(qū)能容納一萬(wàn)人,現(xiàn)在進(jìn)去了三萬(wàn)人,勢(shì)必摩肩接踵,整不好還會(huì)有事故發(fā)生,這樣的結(jié)果就是所有人的體驗(yàn)都不好,如果發(fā)生了事故景區(qū)可能還要關(guān)閉,導(dǎo)致對(duì)外不可用,這樣的后果就是所有人都覺(jué)得體驗(yàn)糟糕透了。

限流的思想就是在保證可用的情況下盡可能多增加進(jìn)入的人數(shù),其余的人在外面排隊(duì)等待,保證里面的一萬(wàn)人可以正常游玩。

回到網(wǎng)絡(luò)上,同樣也是這個(gè)道理,例如某某明星公布了戀情,訪問(wèn)從平時(shí)的50萬(wàn)增加到了500萬(wàn),系統(tǒng)最多可以支撐200萬(wàn)訪問(wèn),那么就要執(zhí)行限流規(guī)則,保證是一個(gè)可用的狀態(tài),不至于服務(wù)器崩潰導(dǎo)致所有請(qǐng)求不可用。

限流思路

對(duì)系統(tǒng)服務(wù)進(jìn)行限流,一般有如下幾個(gè)模式:

熔斷

系統(tǒng)在設(shè)計(jì)之初就把熔斷措施考慮進(jìn)去。當(dāng)系統(tǒng)出現(xiàn)問(wèn)題時(shí),如果短時(shí)間內(nèi)無(wú)法修復(fù),系統(tǒng)要自動(dòng)做出判斷,開(kāi)啟熔斷開(kāi)關(guān),拒絕流量訪問(wèn),避免大流量對(duì)后端的過(guò)載請(qǐng)求。

系統(tǒng)也應(yīng)該能夠動(dòng)態(tài)監(jiān)測(cè)后端程序的修復(fù)情況,當(dāng)程序已恢復(fù)穩(wěn)定時(shí),可以關(guān)閉熔斷開(kāi)關(guān),恢復(fù)正常服務(wù)。常見(jiàn)的熔斷組件有Hystrix以及阿里的Sentinel,兩種互有優(yōu)缺點(diǎn),可以根據(jù)業(yè)務(wù)的實(shí)際情況進(jìn)行選擇。

服務(wù)降級(jí)

將系統(tǒng)的所有功能服務(wù)進(jìn)行一個(gè)分級(jí),當(dāng)系統(tǒng)出現(xiàn)問(wèn)題需要緊急限流時(shí),可將不是那么重要的功能進(jìn)行降級(jí)處理,停止服務(wù),這樣可以釋放出更多的資源供給核心功能的去用。

例如在電商平臺(tái)中,如果突發(fā)流量激增,可臨時(shí)將商品評(píng)論、積分等非核心功能進(jìn)行降級(jí),停止這些服務(wù),釋放出機(jī)器和CPU等資源來(lái)保障用戶(hù)正常下單,而這些降級(jí)的功能服務(wù)可以等整個(gè)系統(tǒng)恢復(fù)正常后,再來(lái)啟動(dòng),進(jìn)行補(bǔ)單/補(bǔ)償處理。除了功能降級(jí)以外,還可以采用不直接操作數(shù)據(jù)庫(kù),而全部讀緩存、寫(xiě)緩存的方式作為臨時(shí)降級(jí)方案。

延遲處理

這個(gè)模式需要在系統(tǒng)的前端設(shè)置一個(gè)流量緩沖池,將所有的請(qǐng)求全部緩沖進(jìn)這個(gè)池子,不立即處理。然后后端真正的業(yè)務(wù)處理程序從這個(gè)池子中取出請(qǐng)求依次處理,常見(jiàn)的可以用隊(duì)列模式來(lái)實(shí)現(xiàn)。這就相當(dāng)于用異步的方式去減少了后端的處理壓力,但是當(dāng)流量較大時(shí),后端的處理能力有限,緩沖池里的請(qǐng)求可能處理不及時(shí),會(huì)有一定程度延遲。后面具體的漏桶算法以及令牌桶算法就是這個(gè)思路。

特權(quán)處理

這個(gè)模式需要將用戶(hù)進(jìn)行分類(lèi),通過(guò)預(yù)設(shè)的分類(lèi),讓系統(tǒng)優(yōu)先處理需要高保障的用戶(hù)群體,其它用戶(hù)群的請(qǐng)求就會(huì)延遲處理或者直接不處理。

緩存、降級(jí)、限流區(qū)別

  • 緩存是用來(lái)增加系統(tǒng)吞吐量,提升訪問(wèn)速度提供高并發(fā)。
  • 降級(jí)是在系統(tǒng)某些服務(wù)組件不可用的時(shí)候、流量暴增、資源耗盡等情況下,暫時(shí)屏蔽掉出問(wèn)題的服務(wù),繼續(xù)提供降級(jí)服務(wù),給用戶(hù)盡可能的友好提示,返回兜底數(shù)據(jù),不會(huì)影響整體業(yè)務(wù)流程,待問(wèn)題解決再重新上線服務(wù)
  • 限流是指在使用緩存和降級(jí)無(wú)效的場(chǎng)景。比如當(dāng)達(dá)到閾值后限制接口調(diào)用頻率,訪問(wèn)次數(shù),庫(kù)存?zhèn)€數(shù)等,在出現(xiàn)服務(wù)不可用之前,提前把服務(wù)降級(jí)。只服務(wù)好一部分用戶(hù)。

 限流的算法

限流算法很多,常見(jiàn)的有三類(lèi),分別是計(jì)數(shù)器算法、漏桶算法、令牌桶算法,下面逐一講解。

計(jì)數(shù)器算法

簡(jiǎn)單粗暴,比如指定線程池大小,指定數(shù)據(jù)庫(kù)連接池大小、Nginx連接數(shù)等,這都屬于計(jì)數(shù)器算法。

計(jì)數(shù)器算法是限流算法里最簡(jiǎn)單也是最容易實(shí)現(xiàn)的一種算法。舉個(gè)例子,比如我們規(guī)定對(duì)于A接口,我們1分鐘的訪問(wèn)次數(shù)不能超過(guò)100個(gè)。那么我們可以這么做:在一開(kāi)始的時(shí)候,我們可以設(shè)置一個(gè)計(jì)數(shù)器counter,每當(dāng)一個(gè)請(qǐng)求過(guò)來(lái)的時(shí)候,counter就加1,如果counter的值大于100并且該請(qǐng)求與第一個(gè)請(qǐng)求的間隔時(shí)間還在1分鐘之內(nèi),那么說(shuō)明請(qǐng)求數(shù)過(guò)多,拒絕訪問(wèn);如果該請(qǐng)求與第一個(gè)請(qǐng)求的間隔時(shí)間大于1分鐘,且counter的值還在限流范圍內(nèi),那么就重置counter,就是這么簡(jiǎn)單粗暴。

漏桶算法

漏桶算法思路很簡(jiǎn)單,水(請(qǐng)求)先進(jìn)入到漏桶里,漏桶以一定的速度出水,當(dāng)水流入速度過(guò)大會(huì)超過(guò)桶可接納的容量時(shí)直接溢出,可以看出漏桶算法能強(qiáng)行限制數(shù)據(jù)的傳輸速率。

這樣做的好處是:

  • 削峰:有大量流量進(jìn)入時(shí),會(huì)發(fā)生溢出,從而限流保護(hù)服務(wù)可用
  • 緩沖:不至于直接請(qǐng)求到服務(wù)器,緩沖壓力

令牌桶算法

令牌桶與漏桶相似,不同的是令牌桶桶中放了一些令牌,服務(wù)請(qǐng)求到達(dá)后,要獲取令牌之后才會(huì)得到服務(wù),舉個(gè)例子,我們平時(shí)去食堂吃飯,都是在食堂內(nèi)窗口前排隊(duì)的,這就好比是漏桶算法,大量的人員聚集在食堂內(nèi)窗口外,以一定的速度享受服務(wù),如果涌進(jìn)來(lái)的人太多,食堂裝不下了,可能就有一部分人站到食堂外了,這就沒(méi)有享受到食堂的服務(wù),稱(chēng)之為溢出,溢出可以繼續(xù)請(qǐng)求,也就是繼續(xù)排隊(duì),那么這樣有什么問(wèn)題呢?

如果這時(shí)候有特殊情況,比如有些趕時(shí)間的志愿者啦、或者高三要高考啦,這種情況就是突發(fā)情況,如果也用漏桶算法那也得慢慢排隊(duì),這也就沒(méi)有解決我們的需求,對(duì)于很多應(yīng)用場(chǎng)景來(lái)說(shuō),除了要求能夠限制數(shù)據(jù)的平均傳輸速率外,還要求允許某種程度的突發(fā)傳輸。這時(shí)候漏桶算法可能就不合適了,令牌桶算法更為適合。如圖所示,令牌桶算法的原理是系統(tǒng)會(huì)以一個(gè)恒定的速度往桶里放入令牌,而如果請(qǐng)求需要被處理,則需要先從桶里獲取一個(gè)令牌,當(dāng)桶里沒(méi)有令牌可取時(shí),則拒絕服務(wù)。

令牌桶好處就是,如果某一瞬間訪問(wèn)量劇增或者有突發(fā)情況,可以通過(guò)改變桶中令牌數(shù)量來(lái)改變連接數(shù),就好比那個(gè)食堂排隊(duì)吃飯的問(wèn)題,如果現(xiàn)在不是直接去窗口排隊(duì),而是先來(lái)樓外拿飯票然后再去排隊(duì),那么有高三的學(xué)生時(shí)可以將增加飯票數(shù)量或者優(yōu)先將令牌給高三的學(xué)生,這樣比漏桶算法更加靈活。

并發(fā)限流

簡(jiǎn)單來(lái)說(shuō)就是設(shè)置系統(tǒng)閾值總的QPS個(gè)數(shù),這些也挺常見(jiàn)的,就拿Tomcat來(lái)說(shuō),很多參數(shù)就是出于這個(gè)考慮,例如配置的acceptCount設(shè)置響應(yīng)連接數(shù),maxConnections設(shè)置瞬時(shí)最大連接數(shù),maxThreads設(shè)置最大線程數(shù),在各個(gè)框架或者組件中,并發(fā)限流體現(xiàn)在下面幾個(gè)方面:

  • 限制總并發(fā)數(shù)(如數(shù)據(jù)庫(kù)連接池、線程池)
  • 限制瞬時(shí)并發(fā)數(shù)(Nginx的limit_conn模塊,用來(lái)限制瞬時(shí)并發(fā)連接數(shù))
  • 限制時(shí)間窗口內(nèi)的平均速率(如Guava的RateLimiter、Nginx的limit_req模塊,限制每秒的平均速率)
  • 其他的還有限制遠(yuǎn)程接口調(diào)用速率、限制MQ的消費(fèi)速率。
  • 另外還可以根據(jù)網(wǎng)絡(luò)連接數(shù)、網(wǎng)絡(luò)流量、CPU或內(nèi)存負(fù)載等來(lái)限流。

有了并發(fā)限流,就意味著在處理高并發(fā)的時(shí)候多了一種保護(hù)機(jī)制,不用擔(dān)心瞬間流量導(dǎo)致系統(tǒng)掛掉或雪崩,最終做到有損服務(wù)而不是不服務(wù);但是限流需要評(píng)估好,不能亂用,否則一些正常流量出現(xiàn)一些奇怪的問(wèn)題而導(dǎo)致用戶(hù)體驗(yàn)很差造成用戶(hù)流失。

接口限流

接口限流分為兩個(gè)部分,一是限制一段時(shí)間內(nèi)接口調(diào)用次數(shù),參照前面限流算法的計(jì)數(shù)器算法,二是設(shè)置滑動(dòng)時(shí)間窗口算法。

接口總數(shù)

控制一段時(shí)間內(nèi)接口被調(diào)用的總數(shù)量,可以參考前面的計(jì)數(shù)器算法,不再贅述。

接口時(shí)間窗口

固定時(shí)間窗口算法(也就是前面提到的計(jì)數(shù)器算法)的問(wèn)題是統(tǒng)計(jì)區(qū)間太大,限流不夠精確,而且在第二個(gè)統(tǒng)計(jì)區(qū)間時(shí)沒(méi)有考慮與前一個(gè)統(tǒng)計(jì)區(qū)間的關(guān)系與影響(第一個(gè)區(qū)間后半段 + 第二個(gè)區(qū)間前半段也是一分鐘)。為了解決上面我們提到的臨界問(wèn)題,我們?cè)噲D把每個(gè)統(tǒng)計(jì)區(qū)間分為更小的統(tǒng)計(jì)區(qū)間,更精確的統(tǒng)計(jì)計(jì)數(shù)。

在上面的例子中,假設(shè)QPS可以接受100次查詢(xún)/秒,前一分鐘前40秒訪問(wèn)很低,后20秒突增,并且這個(gè)持續(xù)了一段時(shí)間,直到第二分鐘的第40秒才開(kāi)始降下來(lái),根據(jù)前面的計(jì)數(shù)方法,前一秒的QPS為94,后一秒的QPS為92,那么沒(méi)有超過(guò)設(shè)定參數(shù),但是!但是在中間區(qū)域,QPS達(dá)到了142,這明顯超過(guò)了我們的允許的服務(wù)請(qǐng)求數(shù)目,所以固定窗口計(jì)數(shù)器不太可靠,需要滑動(dòng)窗口計(jì)數(shù)器。

計(jì)數(shù)器算法其實(shí)就是固定窗口算法,只是它沒(méi)有對(duì)時(shí)間窗口做進(jìn)一步地劃分,所以只有1格;由此可見(jiàn),當(dāng)滑動(dòng)窗口的格子劃分的越多,也就是將秒精確到毫秒或者納秒,那么滑動(dòng)窗口的滾動(dòng)就越平滑,限流的統(tǒng)計(jì)就會(huì)越精確。需要注意的是,消耗的空間就越多。

限流實(shí)現(xiàn)

這一部分是限流的具體實(shí)現(xiàn),簡(jiǎn)單說(shuō)說(shuō),畢竟長(zhǎng)篇代碼沒(méi)人愿意看。

guava實(shí)現(xiàn)

引入包:

  1. <!-- https://mvnrepository.com/artifact/com.google.guava/guava --> 
  2. <dependency> 
  3. <groupId>com.google.guava</groupId> 
  4. <artifactId>guava</artifactId> 
  5. <version>28.1-jre</version> 
  6. </dependency> 


核心代碼:

  1. LoadingCache<Long, AtomicLong> counter = CacheBuilder.newBuilder(). 
  2.             expireAfterWrite(2, TimeUnit.SECONDS) 
  3.             .build(new CacheLoader<Long, AtomicLong>() { 
  4.  
  5.                 @Override 
  6.                 public AtomicLong load(Long secend) throws Exception { 
  7.                     // TODO Auto-generated method stub 
  8.                     return new AtomicLong(0); 
  9.                 } 
  10.             }); 
  11.     counter.get(1l).incrementAndGet(); 

 令牌桶實(shí)現(xiàn)

穩(wěn)定模式(SmoothBursty:令牌生成速度恒定):

  1. public static void main(String[] args) { 
  2.     // RateLimiter.create(2)每秒產(chǎn)生的令牌數(shù) 
  3.     RateLimiter limiter = RateLimiter.create(2); 
  4.     // limiter.acquire() 阻塞的方式獲取令牌 
  5.     System.out.println(limiter.acquire());; 
  6.     try { 
  7.         Thread.sleep(2000); 
  8.     } catch (InterruptedException e) { 
  9.         // TODO Auto-generated catch block 
  10.         e.printStackTrace(); 
  11.     } 
  12.     System.out.println(limiter.acquire());; 
  13.     System.out.println(limiter.acquire());; 
  14.     System.out.println(limiter.acquire());; 
  15.     System.out.println(limiter.acquire());; 
  16.  
  17.     System.out.println(limiter.acquire());; 
  18.     System.out.println(limiter.acquire());; 
  19. }  

RateLimiter.create(2)容量和突發(fā)量,令牌桶算法允許將一段時(shí)間內(nèi)沒(méi)有消費(fèi)的令牌暫存到令牌桶中,用來(lái)突發(fā)消費(fèi)。

漸進(jìn)模式(SmoothWarmingUp:令牌生成速度緩慢提升直到維持在一個(gè)穩(wěn)定值):

  1. // 平滑限流,從冷啟動(dòng)速率(滿(mǎn)的)到平均消費(fèi)速率的時(shí)間間隔 
  2.     RateLimiter limiter = RateLimiter.create(2,1000l,TimeUnit.MILLISECONDS); 
  3.     System.out.println(limiter.acquire());; 
  4.     try { 
  5.         Thread.sleep(2000); 
  6.     } catch (InterruptedException e) { 
  7.         // TODO Auto-generated catch block 
  8.         e.printStackTrace(); 
  9.     } 
  10.     System.out.println(limiter.acquire());; 
  11.     System.out.println(limiter.acquire());; 
  12.     System.out.println(limiter.acquire());; 
  13.     System.out.println(limiter.acquire());; 
  14.  
  15.     System.out.println(limiter.acquire());; 
  16.     System.out.println(limiter.acquire());; 


超時(shí):

  1. boolean tryAcquire = limiter.tryAcquire(Duration.ofMillis(11)); 

在timeout時(shí)間內(nèi)是否能夠獲得令牌,異步執(zhí)行。

分布式系統(tǒng)限流

Nginx + Lua實(shí)現(xiàn)

可以使用resty.lock保持原子特性,請(qǐng)求之間不會(huì)產(chǎn)生鎖的重入。

https://github.com/openresty/lua-resty-lock

使用lua_shared_dict存儲(chǔ)數(shù)據(jù):

  1. local locks = require "resty.lock" 
  2.  
  3. local function acquire() 
  4. local lock =locks:new("locks"
  5. local elapsed, err =lock:lock("limit_key") --互斥鎖 保證原子特性 
  6. local limit_counter =ngx.shared.limit_counter --計(jì)數(shù)器 
  7.  
  8. local key = "ip:" ..os.time() 
  9. local limit = 5 --限流大小 
  10. local current =limit_counter:get(key) 
  11.  
  12. if current ~= nil and current + 1> limit then --如果超出限流大小 
  13.    lock:unlock() 
  14.    return 0 
  15. end 
  16. if current == nil then 
  17.    limit_counter:set(key, 11) --第一次需要設(shè)置過(guò)期時(shí)間,設(shè)置key的值為1, 
  18. --過(guò)期時(shí)間為1秒 
  19. else 
  20.     limit_counter:incr(key, 1) --第二次開(kāi)始加1即可 
  21. end 
  22. lock:unlock() 
  23. return 1 
  24. end 
  25. ngx.print(acquire()) 

 

責(zé)任編輯:張燕妮 來(lái)源: dockone.io
相關(guān)推薦

2021-06-28 10:09:59

架構(gòu)網(wǎng)關(guān)技術(shù)

2021-03-02 07:54:18

流量網(wǎng)關(guān)設(shè)計(jì)

2021-02-24 16:17:18

架構(gòu)運(yùn)維技術(shù)

2017-03-24 17:17:35

限流節(jié)流系統(tǒng)

2025-02-26 00:28:01

2021-10-14 09:51:17

架構(gòu)運(yùn)維技術(shù)

2021-12-03 10:47:28

WOT技術(shù)峰會(huì)技術(shù)

2020-01-17 11:00:23

流量系統(tǒng)架構(gòu)

2024-05-27 08:32:45

2024-10-28 08:01:11

2020-09-01 07:49:14

JVM流量系統(tǒng)

2020-07-29 07:28:14

分布式限流系統(tǒng)

2018-10-23 09:22:06

2020-10-27 07:29:43

架構(gòu)系統(tǒng)流量

2020-12-09 08:12:30

系統(tǒng)架構(gòu)

2016-11-23 12:55:09

京東活動(dòng)系統(tǒng)流量

2024-10-24 21:01:13

Python微服務(wù)架構(gòu)

2018-04-10 10:15:48

微服務(wù)架構(gòu)Nginx

2023-12-14 08:39:52

2019-10-25 09:28:12

算法設(shè)計(jì)操作系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)