自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Go 分布式令牌桶限流 + 兜底保障

開發(fā) 后端 分布式
單位時間按照一定速率勻速的生產(chǎn) token 放入桶內(nèi),直到達到桶容量上限。處理請求,每次嘗試獲取一個或多個令牌,如果拿到則處理請求,失敗則拒絕請求。

 

本文轉(zhuǎn)載自微信公眾號「微服務實踐」,作者歐陽安。轉(zhuǎn)載本文請聯(lián)系微服務實踐公眾號。

上篇文章提到固定時間窗口限流無法處理突然請求洪峰情況,本文講述的令牌桶線路算法則可以比較好的處理此場景。

工作原理

單位時間按照一定速率勻速的生產(chǎn) token 放入桶內(nèi),直到達到桶容量上限。

處理請求,每次嘗試獲取一個或多個令牌,如果拿到則處理請求,失敗則拒絕請求。

優(yōu)缺點

優(yōu)點

可以有效處理瞬間的突發(fā)流量,桶內(nèi)存量 token 即可作為流量緩沖區(qū)平滑處理突發(fā)流量。

缺點

實現(xiàn)較為復雜。

代碼實現(xiàn)

  1. core/limit/tokenlimit.go 

分布式環(huán)境下考慮使用 redis 作為桶和令牌的存儲容器,采用 lua 腳本實現(xiàn)整個算法流程。

redis lua 腳本

  1. -- 每秒生成token數(shù)量即token生成速度 
  2. local rate = tonumber(ARGV[1]) 
  3. -- 桶容量 
  4. local capacity = tonumber(ARGV[2]) 
  5. -- 當前時間戳 
  6. local now = tonumber(ARGV[3]) 
  7. -- 當前請求token數(shù)量 
  8. local requested = tonumber(ARGV[4]) 
  9. -- 需要多少秒才能填滿桶 
  10. local fill_time = capacity/rate 
  11. -- 向下取整,ttl為填滿時間的2倍 
  12. local ttl = math.floor(fill_time*2) 
  13. -- 當前時間桶容量 
  14. local last_tokens = tonumber(redis.call("get", KEYS[1])) 
  15. -- 如果當前桶容量為0,說明是第一次進入,則默認容量為桶的最大容量 
  16. if last_tokens == nil then 
  17. last_tokens = capacity 
  18. end 
  19. -- 上一次刷新的時間 
  20. local last_refreshed = tonumber(redis.call("get", KEYS[2])) 
  21. -- 第一次進入則設置刷新時間為0 
  22. if last_refreshed == nil then 
  23. last_refreshed = 0 
  24. end 
  25. -- 距離上次請求的時間跨度 
  26. local delta = math.max(0, now-last_refreshed) 
  27. -- 距離上次請求的時間跨度,總共能生產(chǎn)token的數(shù)量,如果超多最大容量則丟棄多余的token 
  28. local filled_tokens = math.min(capacity, last_tokens+(delta*rate)) 
  29. -- 本次請求token數(shù)量是否足夠 
  30. local allowed = filled_tokens >= requested 
  31. -- 桶剩余數(shù)量 
  32. local new_tokens = filled_tokens 
  33. -- 允許本次token申請,計算剩余數(shù)量 
  34. if allowed then 
  35. new_tokens = filled_tokens - requested 
  36. end 
  37. -- 設置剩余token數(shù)量 
  38. redis.call("setex", KEYS[1], ttl, new_tokens) 
  39. -- 設置刷新時間 
  40. redis.call("setex", KEYS[2], ttl, now) 
  41.  
  42. return allowed 

令牌桶限流器定義

  1. type TokenLimiter struct { 
  2.     // 每秒生產(chǎn)速率 
  3.     rate int 
  4.     // 桶容量 
  5.     burst int 
  6.     // 存儲容器 
  7.     store *redis.Redis 
  8.     // redis key 
  9.     tokenKey       string 
  10.     // 桶刷新時間key 
  11.     timestampKey   string 
  12.     // lock 
  13.     rescueLock     sync.Mutex 
  14.     // redis健康標識 
  15.     redisAlive     uint32 
  16.     // redis故障時采用進程內(nèi) 令牌桶限流器 
  17.     rescueLimiter  *xrate.Limiter 
  18.     // redis監(jiān)控探測任務標識 
  19.     monitorStarted bool 
  20.  
  21. func NewTokenLimiter(rate, burst int, store *redis.Redis, key string) *TokenLimiter { 
  22.     tokenKey := fmt.Sprintf(tokenFormat, key
  23.     timestampKey := fmt.Sprintf(timestampFormat, key
  24.  
  25.     return &TokenLimiter{ 
  26.         rate:          rate, 
  27.         burst:         burst, 
  28.         store:         store, 
  29.         tokenKey:      tokenKey, 
  30.         timestampKey:  timestampKey, 
  31.         redisAlive:    1, 
  32.         rescueLimiter: xrate.NewLimiter(xrate.Every(time.Second/time.Duration(rate)), burst), 
  33.     } 

獲取令牌

  1. func (lim *TokenLimiter) reserveN(now time.Time, n int) bool { 
  2.     // 判斷redis是否健康 
  3.     // redis故障時采用進程內(nèi)限流器 
  4.     // 兜底保障 
  5.     if atomic.LoadUint32(&lim.redisAlive) == 0 { 
  6.         return lim.rescueLimiter.AllowN(now, n) 
  7.     } 
  8.     // 執(zhí)行腳本獲取令牌 
  9.     resp, err := lim.store.Eval( 
  10.         script, 
  11.         []string{ 
  12.             lim.tokenKey, 
  13.             lim.timestampKey, 
  14.         }, 
  15.         []string{ 
  16.             strconv.Itoa(lim.rate), 
  17.             strconv.Itoa(lim.burst), 
  18.             strconv.FormatInt(now.Unix(), 10), 
  19.             strconv.Itoa(n), 
  20.         }) 
  21.     // redis allowed == false 
  22.     // Lua boolean false -> r Nil bulk reply 
  23.     // 特殊處理key不存在的情況 
  24.     if err == redis.Nil { 
  25.         return false 
  26.     } else if err != nil { 
  27.         logx.Errorf("fail to use rate limiter: %s, use in-process limiter for rescue", err) 
  28.         // 執(zhí)行異常,開啟redis健康探測任務 
  29.         // 同時采用進程內(nèi)限流器作為兜底 
  30.         lim.startMonitor() 
  31.         return lim.rescueLimiter.AllowN(now, n) 
  32.     } 
  33.  
  34.     code, ok := resp.(int64) 
  35.     if !ok { 
  36.         logx.Errorf("fail to eval redis script: %v, use in-process limiter for rescue", resp) 
  37.         lim.startMonitor() 
  38.         return lim.rescueLimiter.AllowN(now, n) 
  39.     } 
  40.  
  41.     // redis allowed == true 
  42.     // Lua boolean true -> r integer reply with value of 1 
  43.     return code == 1 

redis 故障時兜底策略

兜底策略的設計考慮得非常細節(jié),當 redis 不可用的時候,啟動單機版的 ratelimit 做備用限流,確?;镜南蘖骺捎茫詹粫粵_垮。

  1. // 開啟redis健康探測 
  2. func (lim *TokenLimiter) startMonitor() { 
  3.     lim.rescueLock.Lock() 
  4.     defer lim.rescueLock.Unlock() 
  5.     // 防止重復開啟 
  6.     if lim.monitorStarted { 
  7.         return 
  8.     } 
  9.  
  10.     // 設置任務和健康標識 
  11.     lim.monitorStarted = true 
  12.     atomic.StoreUint32(&lim.redisAlive, 0) 
  13.     // 健康探測 
  14.     go lim.waitForRedis() 
  15.  
  16. // redis健康探測定時任務 
  17. func (lim *TokenLimiter) waitForRedis() { 
  18.     ticker := time.NewTicker(pingInterval) 
  19.     // 健康探測成功時回調(diào)此函數(shù) 
  20.     defer func() { 
  21.         ticker.Stop() 
  22.         lim.rescueLock.Lock() 
  23.         lim.monitorStarted = false 
  24.         lim.rescueLock.Unlock() 
  25.     }() 
  26.  
  27.     for range ticker.C { 
  28.         // ping屬于redis內(nèi)置健康探測命令 
  29.         if lim.store.Ping() { 
  30.             // 健康探測成功,設置健康標識 
  31.             atomic.StoreUint32(&lim.redisAlive, 1) 
  32.             return 
  33.         } 
  34.     } 

項目地址

https://github.com/zeromicro/go-zero

歡迎使用 go-zero 并 star 支持我們!

 

責任編輯:武曉燕 來源: 微服務實踐
相關(guān)推薦

2023-08-10 08:00:42

令牌限流器計數(shù)器

2020-10-16 09:34:39

漏桶令牌桶限流

2022-03-07 08:14:27

并發(fā)分布式

2022-03-11 10:03:40

分布式鎖并發(fā)

2024-04-08 11:04:03

2018-06-11 11:12:09

秒殺限流分布式

2018-06-19 09:35:51

分布式系統(tǒng)限流

2023-07-11 10:24:00

分布式限流算法

2018-01-12 16:51:48

華為

2022-12-21 08:40:05

限流器分布式限流

2023-04-06 08:52:54

Sentinel分布式系統(tǒng)

2024-01-26 07:49:49

Go分布式鏈路

2023-11-02 09:33:31

Go語言Raft算法

2019-10-10 09:16:34

Zookeeper架構(gòu)分布式

2019-08-27 08:30:19

分布式服務限流

2019-08-08 09:57:53

分布式服務限流

2024-05-07 09:00:41

Go語言令牌桶

2019-04-24 08:31:43

分布式限流kafka

2023-08-04 07:28:00

2023-05-29 14:07:00

Zuul網(wǎng)關(guān)系統(tǒng)
點贊
收藏

51CTO技術(shù)棧公眾號