消費者原理分析-RocketMQ知識體系(四)
前文了解了 RocketMQ消息存儲的相關(guān)原理,本文將講講消息消費的過程及相關(guān)概念。
消息消費
關(guān)于消息消費,消費者組這些概念,基本和kafka 是類似的,比如:
一個消費組內(nèi)可以包含多個消費者,1個消費組可訂閱多個主題。消費組之間有集群模式與廣播模式兩種。
集群模式下,主題下的同一消息只允許被消費組內(nèi)的一個消費者消費,消費進度存儲在 broker 端。廣播模式下,則每個消費者都可以消費該消息,消費進度存儲在消費者端。
集群模式下,一個消費隊列同一時間,只允許被一個消費者消費,1個消費者,可以消費多個消息隊列。具體的可以看我前面的文章。
而且 rocketmq 消息服務(wù)器與消費者的消息傳輸有 2 種方式:推模式、拉模式。拉模式,即消費者主動向消息服務(wù)器發(fā)送請求;推模式,即消息服務(wù)器向消費者推送消息。推模式,是基于拉模式實現(xiàn)的。
消費者啟動
主要就是初始化了三個組件,然后啟動后臺定時任務(wù)。
三個組件:
- 【RebalanceImpl】均衡消息隊列服務(wù),負(fù)責(zé)分配當(dāng)前 Consumer 可消費的消息隊列( MessageQueue )。當(dāng)有新的 Consumer 的加入或移除,都會重新分配消息隊列。
- 【PullAPIWrapper】拉取消息組件
- 【offsetStore】消費進度組件
幾個定時任務(wù)
- PullMessageService
- 從阻塞隊列pullRequestQueue中獲取consumer的pull請求
- RebalanceService
- 負(fù)載均衡定時任務(wù),給 Consumer 分配可消費的 MessageQueue
- fetchNameServerAddr
- 定時獲取 NameSever 地址
- updateTopicRouteInfoFromNameServer
- 定時更新Topic路由信息
- cleanOfflineBroker
- 定時清理下線Broker
- sendHeartbeatToAllBrokerWithLock
- 發(fā)送心跳
- persistAllConsumerOffset
- 持久化消費進度 ConsumerOffset
消息拉取
對于任何一款消息中間件而言,消費者客戶端一般有兩種方式從消息中間件獲取消息并消費:
Pull
即消費者每隔一定時間主動去 Broker 拉取消息
優(yōu)點
消費速度、數(shù)量可控
缺點
如果間隔時間短,可能會拉空,并且頻繁 RPC 請求增加網(wǎng)絡(luò)開銷 如果間隔時間長,則可能會有消息延遲 消費進度offset需要consumer自己來維護
Push
即 Broker 主動實時推送消息給消費者
優(yōu)點
消息實時,保持長鏈接,不會頻繁建立鏈接
缺點
如果消息數(shù)量過大,消費者吞吐量小,肯能會造成消費者緩沖區(qū)溢出。
在文章的開頭我們也說了RocketMQ推模式,是基于拉模式實現(xiàn)的。
【PullMessageService 消息拉取】
RocketMQ 通過 PullMessageService 拉取消息。
通過代碼段 PullMessageService#run可以看出:
- public void run() {
- // stopped 是 volidate 修飾的變量,用于線程間通信。
- while (!this.isStopped()) {
- // ..
- // 阻塞隊列, 如果 pullRequestQueue 沒有元素,則阻塞
- PullRequest pullRequest = this.pullRequestQueue.take();
- // 消息拉取
- this.pullMessage(pullRequest);
- // ...
- }
- }
關(guān)于PullRequest
- // 消費者組
- private String consumerGroup;
- // 消息隊列
- private MessageQueue messageQueue;
- // 消息處理隊列,從 Broker 拉取到的消息先存入 ProcessQueue,然后再提交到消費者消費池消費
- private ProcessQueue processQueue;
- // 待拉取的 MessageQueue 偏移量
- private long nextOffset;
- // 是否被鎖定
- private boolean lockedFirst = false;
PullMessageService 添加 PullRequest 有兩種方式:
延時添加
立即添加
【關(guān)于ProcessQueue】
ProcessQueue 是 MessageQueue 在消費端的重現(xiàn)、快照。PullMessageService 從消息服務(wù)器默認(rèn)每次拉取 32 條消息,按消息的隊列偏移量順序存放在 ProcessQueue 中,PullMessageService 再將消息提交到消費者消費線程池。消息消費成功后,從 ProcessQueue 中移除。
- // 讀寫鎖
- private final ReadWriteLock lockTreeMap = new ReentrantReadWriteLock();
- // 消息存儲容器, k:消息偏移量,v:消息實體
- private final TreeMap<Long, MessageExt> msgTreeMap = new TreeMap<Long, MessageExt>();
- // ProcessQueue 中消息總數(shù)
- private final AtomicLong msgCount = new AtomicLong();
- // ProcessQueue 中消息總大小
- private final AtomicLong msgSize = new AtomicLong();
- // 當(dāng)前 ProcessQueue 中包含的最大隊列偏移量
- private volatile long queueOffsetMax = 0L;
- // 當(dāng)前 ProcessQueue 是否被丟棄
- private volatile boolean dropped = false;
- // 上一次開始消息拉取時間戳
- private volatile long lastPullTimestamp = System.currentTimeMillis();
- // 上一次消息消費時間戳
- private volatile long lastConsumeTimestamp = System.currentTimeMillis();
【對消息拉取進行流量控制】
processQueue 的消息數(shù)量 大于 1000, processQueue 的消息大小 大于 100 MB,將延遲 50 毫秒后拉取消息
processQueue 中偏移量最大的消息與偏移量最小的消息的跨度超過 2000 則延遲 50 毫秒再拉取消息。
根據(jù)主題拉取訂閱的消息,如果為空,延遲 3 秒,再拉取。
【消息服務(wù)端 broker 組裝消息】
代碼位置:PullMessageProcessor#processRequest
- 根據(jù)訂閱消息,構(gòu)建消息過濾器
- 調(diào)用 MessageStore.getMessage 查找消息
- 根據(jù)主題名與隊列編號獲取消息消費隊列
- 消息偏移量異常情況校對下一次拉取偏移量
- 根據(jù) PullRequest 填充 responseHeader 的 nextBeginOffset、minOffset、maxOffset
- 根據(jù)主從同步延遲,如果從節(jié)點數(shù)據(jù)包含下一次拉取的偏移量,設(shè)置下一次拉取任務(wù)的 brokerId
- 如果 commitlog 標(biāo)記可用并且當(dāng)前節(jié)點為主節(jié)點,則更新消息消費進度
【消息拉取長輪詢機制】
RocketMQ 推模式是循環(huán)向消息服務(wù)端發(fā)送消息拉取請求。
消費者向 broker 拉取消息時,如果消息未到達消費隊列,并且未啟用 長輪詢機制,則會在服務(wù)端等待 shortPollingTimeMills(默認(rèn)1秒) 時間后再去判斷消息是否已經(jīng)到達消息隊列,如果消息未到達,則提示消息拉取客戶端 PULL_NOT_FOUND。
如果開啟長輪詢模式,rocketMQ 會每 5s 輪詢檢查一次消息是否可達,同時一有新消息到達后立馬通知掛起線程再次驗證新消息是否是自己感興趣的消息,如果是則從 commitlog 文件提取消息返回給消息拉取客戶端,否則直到掛起超時,超時時間由消息拉取方在消息拉取時封裝在請求參數(shù)中,PUSH 模式默認(rèn) 15s。
PULL 模式通過 DefaultMQPullConsumer#setBrokerSuspendMaxTimeMillis 設(shè)置。RocketMQ 通過在 Broker 端配置 longPollingEnable 為 true 來開啟長輪詢模式。
RocketMQ 的長輪詢機制由 2 個線程共同完成。PullRequestHoldService、ReputMessageService。
【Push消費模式流程簡析】
后臺獨立線程RebalanceServic根據(jù)Topic中消息隊列個數(shù)和當(dāng)前消費組內(nèi)消費者個數(shù)進行負(fù)載均衡,給當(dāng)前消費者分配對應(yīng)的MessageQueue,將其封裝為PullRequest實例放入隊列pullRequestQueue中。
Consumer端開啟后臺獨立的線程PullMessageService不斷地從隊列pullRequestQueue中獲取PullRequest并通過網(wǎng)絡(luò)通信模塊異步發(fā)送Pull消息的RPC請求給Broker端。這里算是比較典型的生產(chǎn)者-消費者模型,實現(xiàn)了準(zhǔn)實時的自動消息拉取。
PullMessageService異步拉取到消息后,通過PullCallback進行回調(diào)處理,如果拉取成功,則更新消費進度,putPullRequest到阻塞隊列pullRequestQueue中,接著立即進行拉取
監(jiān)聽器 ConsumeMessageConcurrentlyService 會一直監(jiān)聽回調(diào)方法 PullCallback,把拉取到的消息交給Consumerrequest進行處理,Consumerrequest會調(diào)用消費者業(yè)務(wù)方實現(xiàn)的consumeMessage()接口處理具體業(yè)務(wù),消費者業(yè)務(wù)方處理完成后返回ACK給Consumerrequest,如果消費者ACK返回的失敗,則在集群模式下把消息發(fā)回 Broker 進行重試(廣播模型重試的成本太高),最后更新消費進度offsetTable
在Broker端,PullMessageProcessor業(yè)務(wù)處理器收到Pull消息的RPC請求后,通過MessageStore實例從commitLog獲取消息。如果第一次嘗試Pull消息失敗(比如Broker端沒有可以消費的消息),則通過長輪詢機制先hold住并且掛起該請求,然后通過Broker端的后臺線程PullRequestHoldService重新嘗試和后臺線程ReputMessageService進行二次處理。
【Push消息流程圖】

RocketMQ消息消費的長輪詢機制
普通輪詢和長輪詢的區(qū)別:
普通輪詢比較簡單,就是定時發(fā)起請求,服務(wù)端收到請求后不論數(shù)據(jù)有沒有更新都立即返回
優(yōu)點就是實現(xiàn)簡單,容易理解。
缺點就是服務(wù)端是被動的,服務(wù)端要不斷的處理客戶端連接,并且服務(wù)端無法控制客戶端pull的頻率以及客戶端數(shù)量.
長輪詢是對普通輪詢的優(yōu)化,依然由客戶端發(fā)起請求,服務(wù)端收到后并不立即響應(yīng)而是hold住客戶端連接,等待數(shù)據(jù)產(chǎn)生變更后(或者超過指定時間還未產(chǎn)生變更)才回復(fù)客戶端
說白了,就是對普通輪詢加了個控制,你客戶端可以隨時請求我,但是回不回復(fù)我說了算,這就保證了服務(wù)端不會被客戶端帶節(jié)奏,導(dǎo)致自己的壓力不可控.
在 RocketMq 中消費者主動發(fā)起pull請求,broker在處理消息拉取請求時,如果沒有查詢到消息,將不返回消費者任何信息,而是先hold住并且掛起請求,使其不會立即發(fā)起下一次拉取請求,會將請求信息pullRequest添加到pullRequestTable中,等待觸發(fā)通知消費者的事件。
當(dāng)生產(chǎn)者發(fā)送最新消息過來后,首先持久化到commitLog文件,通過異步方式同時持久化consumerQueue和index。然后激活consumer發(fā)送來hold的請求,立即將消息通過channel寫入consumer客戶。
如果沒有消息到達且客戶端拉取的偏移量是最新的,會hold住請求。其中hold請求超時時間 < 請求設(shè)定的超時時間。同時Broker端也定時檢測是否請求超時,超時則立即將請求返回,狀態(tài)code為NO_NEW_MESSAGE。
然后在Broker端,通過后臺獨立線程PullRequestHoldService遍歷所有掛起的請求pullRequestTable,如果有消息,則返回響應(yīng)給消費者。
同時,另外一個ReputMessageService線程不斷地構(gòu)建ConsumeQueue/IndexFile數(shù)據(jù),不斷的檢測是否有新消息產(chǎn)生,如果有新消息,則從pullRequestTable通過Topic+queueId的key獲取對應(yīng)hold住的請求pullRequest,再根據(jù)其中的長鏈接channel進行通信響應(yīng)。
通過這種長輪詢機制,即可解決Consumer端需要通過不斷地發(fā)送無效的輪詢Pull請求,而導(dǎo)致整個RocketMQ集群中Broker端負(fù)載很高的問題。
流程如下:

消息隊列負(fù)載與重新分布機制
當(dāng)一個業(yè)務(wù)系統(tǒng)部署多臺機器時,每臺機器都啟動了一個Consumer,并且這些Consumer都在同一個ConsumerGroup也就是消費組中,此時一個消費組中多個Consumer消費一個Topic,而一個Topic中會有多個MessageQueue。
比如有2個Consumer,3個MessageQueue,那么這3個MessageQueue怎么分配呢?這就涉及到Consumer的負(fù)載均衡了。
首先 Consumer 在啟動時,會把自己注冊給所有 Broker ,并保持心跳,讓每一個 Broker 都知道消費組中有哪些 Consumer 。
然后 Consumer 在消費時,會隨機鏈接一臺 Broker ,獲取消費組中的所有 Consumer 。
主要流程如下:

RocketMQ 消息隊列重新分布由 RebalanceService 線程來實現(xiàn)的。RebalanceService 隨著 MQClientInstance 的啟動而啟動。RebalanceService 默認(rèn)每 20 秒,執(zhí)行一次 MQClientInstance#doRebalance
【主題的消息隊列負(fù)載流程】
- 獲取主題的隊列,向 broker 發(fā)送請求,獲取主題下,消費組所有消費者客戶端ID。
- 只有當(dāng) 2 者均不為空時,才有必要進行 rebalance。
- 在 rebalance 時,需要對 隊列,還有消費者客戶端 ID 進行排序,以確保同一個消費組下的視圖是一致的。
- 根據(jù) 分配策略 AllocateMessageQueueStrategy 為 消費者分配隊列。
客戶端執(zhí)行期間 伴隨著PullMessageService 與 RebalanceService 線程交互

消息消費過程
【消費過程】
- 默認(rèn)拉取32條消息,如果消息數(shù)量大于 32 則分頁處理。
- 每次進行消費時,都會判斷 processQueue 是否被刪除,阻止消費者 消費 不屬于自己的 隊列
- 恢復(fù)重試消息主題名, rocketMQ 消息重試機制,決定了,如果發(fā)現(xiàn)消息的延時級別 delayTimeLevel 大于 0,會首先將重試主題存入消息的屬性中,然后設(shè)置主題名稱為 SCHEDULE_TOPIC ,以便時間到后重新參與消息消費。
- 在消費之前,執(zhí)行 hock
- 執(zhí)行,我們編寫的消費代碼
- 在消費之后,執(zhí)行 hock
- 消費完畢后,再次驗證 processQueue 是否被刪除,如果被刪除,不處理結(jié)果。
- 對消費者返回的結(jié)果,進行處理
- 如果消費成功,那么 ack = consumeRequest.getMsgs().size() - 1。會直接更新消費進度。如果消費失敗,那么 ack = -1,重新發(fā)送消息。如果在重新發(fā)送消息時,又失敗了,那么會延遲 5 秒在繼續(xù)消費。
- 不管是消費成功,還是失敗,都會更新消費進度
【消息確認(rèn)】
客戶端在發(fā)送重試消息時,封裝了 ConsumerSendMsgBackRequestHeader。
- // 消息物理偏移量
- private Long offset;
- // 消費組
- private String group;
- // 延遲等級
- private Integer delayLevel;
- // 消息ID
- private String originMsgId;
- // 消息主題
- private String originTopic;
- // 最大重新消費次數(shù),默認(rèn) 16 次 SubscriptionGroupConfig.retryMaxTimes 中定義
- private Integer maxReconsumeTimes;
服務(wù)端的接收邏輯
- 先獲取消費組訂閱配置信息,不存在則直接返回
- 創(chuàng)建主題:%RETRY% + group,并隨機選擇一個隊列
- 用原來的消息,創(chuàng)建一個新的消息
- 如果重試消息的最大重試次數(shù)超過 16 次(默認(rèn)),則將消息放入 %DLQ% 隊列(死信隊列)。等待人工處理
- 由 Commitlog.putMessage 存入消息。
小結(jié)
從消息消費者和消費者組的基本概念,到消息消費的流程。我們了解了RocetMQ消息消費的相關(guān)原理。消費者客戶端的啟動后,會后臺運行幾個定時任務(wù)來處理相關(guān)的邏輯。也知道了RocetMQ消息獲取有推拉兩種模式,而且推模式也是建立在拉模式的基礎(chǔ)之上。知道了普通輪詢和長輪詢的區(qū)別,并且了解了長輪詢的實現(xiàn)邏輯。對消息消費和確認(rèn)流程有了了解。