自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

記Kafka消費的一次生產(chǎn)故障處理過程

開發(fā) 架構
因為我們是按業(yè)務領域拆分多個微服務的,為了解耦訂單與資金平臺,我們選擇了MQ異步消息的方式進行業(yè)務數(shù)據(jù)傳遞。

大家好,歡迎來到Tlog4J課堂,我是Jensen。

記錄今天發(fā)生的一次生產(chǎn)故障以及故障處理全過程。

問題背景

需求背景是這樣的:產(chǎn)品要求訂單過售后期后,資金平臺需要對這些訂單進行結算,并把虛擬資產(chǎn)入賬到下單客戶的虛擬賬戶。

因為我們是按業(yè)務領域拆分多個微服務的,為了解耦訂單與資金平臺,我們選擇了MQ異步消息的方式進行業(yè)務數(shù)據(jù)傳遞,流程簡化如下:

  1. 【訂單中心】查詢已過售后訂單 -> 發(fā)送MQ消息給財務中心。
  2. 【財務中心】接收MQ消息 -> 校驗客戶交易數(shù)據(jù) -> 調(diào)用資金平臺結算積分。
  3. 【資金平臺】結算積分 -> 虛擬資產(chǎn)入賬。

其中,財務中心MQ消費使用了一個基于Kafka二次封裝的組件,默認通過應用內(nèi)線程池異步消費消息進行業(yè)務處理(因為需要在多個地方消費),這個二開的組件也已經(jīng)用了一年時間,相對較為穩(wěn)定。

記Kafka消費的一次生產(chǎn)故障處理過程

OK,到這一步?jīng)]有發(fā)現(xiàn)什么問題。

接下來,不出意外的話馬上就會發(fā)生意外。

凌晨6點觸發(fā)P1級告警,由于應用內(nèi)線程池被撐爆,應用走拒絕策略737次,觸發(fā)SQL慢查詢持續(xù)10秒(剛好校驗客戶交易數(shù)據(jù)操作用到了非索引列查數(shù)據(jù)庫)。

隨后進行了問題排查,分析完生產(chǎn)者、消費者端的代碼,發(fā)現(xiàn)有以下問題:

  1. 消費端財務中心對應的消費方法使用了默認的異步方式處理消息,線程數(shù)大小用了默認的200個線程,如果短時間內(nèi)接收多條MQ而又無法快速執(zhí)行完釋放線程,線程數(shù)達到200個必然會走拒絕策略報錯,甚至影響其它異步執(zhí)行MQ的消費者方法(共用了同一個線程池)。
  2. 訂單中心同一時刻批量修改已過售后訂單,把發(fā)送MQ的方法包在了for循環(huán)中。這意味著如果同一時刻發(fā)送大量MQ消息,又因為第一條消費者存在的隱患,將導致發(fā)送的MQ消息無法被正常消費。

處理過程

分析完問題,基本上能確定如何解決了,分三步:

第一步:對于線上消費異常的數(shù)據(jù),按照代碼邏輯重新跑SQL修復相應數(shù)據(jù)。這件事需要第一時間做,不能因為程序的問題影響客戶體驗。

第二步:該MQ組件異步消費的消息堆積能力受線程池大小影響,應該把消息堆積的問題交給專業(yè)的MQ自己負責,所以暫時關掉該Topic的異步執(zhí)行,不用線程池,改為同步。后續(xù)對該MQ組件進行優(yōu)化,不再提供異步執(zhí)行方式,如使用類似@KafkaListener(topic = "xxx", groupId = "

appName.beanName.methodName")的方式,只不過需要動態(tài)創(chuàng)建KafkaListener,利用MQ本身消費者組的功能,避免消息堆積在應用線程池內(nèi)。

第三步:通過業(yè)務規(guī)避,合理評估需求,對于已經(jīng)確定的場景,能合并的MQ請求、SQL請求、Feign接口調(diào)用請求,比如上面提到的for循環(huán)發(fā)送訂單已過售后通知、校驗客戶交易數(shù)據(jù)、資金平臺積分入賬場景,把它們識別出來,通過批量合并請求的方式解決頻繁請求可能發(fā)生的問題(以空間換頻率)。請求合并后還需要評估合并請求的大小限制,進一步進行請求切割,比如訂單合并后有10萬條數(shù)據(jù),放在一個請求里也不合理,應該按照一定的訂單量切割后再發(fā)送請求。

這里分享一個領導(技術總監(jiān))用了8年的需求分析方法:

記Kafka消費的一次生產(chǎn)故障處理過程

總結一下

對于此類生產(chǎn)問題,分三步解決:

  • 第一,第一時間修復生產(chǎn)數(shù)據(jù),避免影響客戶體驗。
  • 第二,找出臨時解決方案——找出問題根因針對性解決。
  • 第三,長遠的問題規(guī)避方案——合理評估需求。
責任編輯:姜華 來源: 今日頭條
相關推薦

2019-09-08 17:52:10

數(shù)據(jù)庫log file sy等待事件

2020-11-03 07:34:12

Kafka后端工程師

2021-02-01 09:00:34

Ceph octopu集群運維

2021-01-12 07:57:36

MySQLBinlog故障處理

2018-07-18 15:37:24

數(shù)據(jù)庫DB2故障處理

2019-12-12 10:38:10

mysql數(shù)據(jù)庫nnodb

2018-12-06 16:25:39

數(shù)據(jù)庫服務器線程池

2021-03-01 06:14:50

環(huán)境高并發(fā)延遲

2019-08-15 11:30:06

SQL數(shù)據(jù)庫ASH

2019-12-27 10:43:48

磁盤數(shù)據(jù)庫死鎖

2020-09-25 07:57:42

生產(chǎn)事故系統(tǒng)

2019-07-25 08:30:58

數(shù)據(jù)庫服務器故障

2019-11-18 13:42:55

MySQL數(shù)據(jù)庫遷移

2019-08-19 01:34:38

數(shù)據(jù)庫SQL數(shù)據(jù)庫優(yōu)化

2019-11-22 08:05:01

數(shù)據(jù)庫mysql分區(qū)

2019-01-21 11:17:13

CPU優(yōu)化定位

2021-12-06 17:21:05

異常報錯故障

2020-12-15 11:18:43

系統(tǒng)磁盤lvm數(shù)據(jù)庫

2021-12-02 07:50:30

NFS故障內(nèi)存

2021-01-08 13:52:15

Consul微服務服務注冊中心
點贊
收藏

51CTO技術棧公眾號