自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

群聊比單聊,憑什么復(fù)雜這么多?

開發(fā)
群聊是多人社交的基本訴求,群消息的實時性、可達(dá)性、離線消息的復(fù)雜度,要遠(yuǎn)高于單對單消息。

群聊是多人社交的基本訴求,一個群友在群內(nèi)發(fā)了一條消息,期望做到:

  • 在線的群友能第一時間收到消息;
  • 離線的群友能在登陸后收到消息;

群消息的實時性、可達(dá)性、離線消息的復(fù)雜度,要遠(yuǎn)高于單對單消息。

常見的群消息流程如何?

群業(yè)務(wù)的核心數(shù)據(jù)結(jié)構(gòu)有兩個。

群成員表:

t_group_users(group_id, user_id)

畫外音:用來描述一個群里有多少成員。

群離線消息表:

t_offine_msgs(user_id, group_id, sender_id,time, msg_id, msg_detail)

畫外音:用來描述一個群成員的離線消息。 

業(yè)務(wù)場景舉例:

  • 假設(shè)一個群中有x,A,B,C,D共5個成員,成員x發(fā)了一個消息;
  • 成員A與B在線,期望實時收到消息;
  • 成員C與D離線,期望未來拉取到離線消息;

圖片

典型群消息投遞流程,如圖步驟1-4所述:

  • 步驟1:群消息發(fā)送者x向server發(fā)出群消息;
  • 步驟2:server去db中查詢?nèi)褐杏卸嗌儆脩?x,A,B,C,D);
  • 步驟3:server去cache中查詢這些用戶的在線狀態(tài);
  • 步驟4:對于群中在線的用戶A與B,群消息server進(jìn)行實時推送;
  • 步驟5:對于群中離線的用戶C與D,群消息server進(jìn)行離線存儲;

典型的群離線消息拉取流程,如圖步驟1-3所述:

  • 步驟1:離線消息拉取者C向server拉取群離線消息;
  • 步驟2:server從db中拉取離線消息并返回群用戶C;
  • 步驟3:server從db中刪除群用戶C的群離線消息;

那么,問題來了!對于同一份群消息的內(nèi)容,多個離線用戶似乎要存儲很多份。假設(shè)群中有200個用戶離線,離線消息則冗余了200份,這極大的增加了數(shù)據(jù)庫的存儲壓力。

如何優(yōu)化,減少消息冗余量?

為了減少離線消息的冗余度,增加一個群消息表,用來存儲所有群消息的內(nèi)容,離線消息表只存儲用戶的群離線消息msg_id,就能大大的降低數(shù)據(jù)庫的冗余存儲量。

群消息表:

t_group_msgs(group_id, sender_id, time,msg_id, msg_detail)

畫外音:用來存儲一個群中所有的消息內(nèi)容。

群離線消息表,需要進(jìn)行優(yōu)化:

t_offine_msgs(user_id, group_id, msg_id)

畫外音:優(yōu)化后只存儲msg_id。

圖片

這樣優(yōu)化后,群在線消息發(fā)送就做了一些修改:

  • 步驟3:每次發(fā)送在線群消息之前,要先存儲群消息的內(nèi)容;
  • 步驟6:每次存儲離線消息時,只存儲msg_id,而不用為每個用戶存儲msg_detail;

圖片

拉取離線消息時也做了響應(yīng)的修改:

  • 步驟1:先拉取所有的離線消息msg_id;
  • 步驟3:再根據(jù)msg_id拉取msg_detail;
  • 步驟5:刪除離線msg_id;

優(yōu)化后的流程,能保證消息的可達(dá)性么?例如:

  • 在線消息的投遞可能出現(xiàn)消息丟失,例如服務(wù)器重啟,路由器丟包,客戶端crash;
  • 離線消息的拉取也可能出現(xiàn)消息丟失,原因同上;

畫外音:單對單消息的可靠投遞一樣,是通過加入應(yīng)用層的ACK實現(xiàn)的,群消息呢?

群消息,如何通過應(yīng)用層ACK,保證消息的可靠投遞?

圖片

應(yīng)用層ACK優(yōu)化后,群在線消息發(fā)送又發(fā)生了一些變化:

  • 步驟3:在消息msg_detail存儲到群消息表后,不管用戶是否在線,都先將msg_id存儲到離線消息表里;
  • 步驟6:在線的用戶A和B收到群消息后,需要增加一個應(yīng)用層ACK,來標(biāo)識消息到達(dá);
  • 步驟7:在線的用戶A和B在應(yīng)用層ACK后,將他們的離線消息msg_id刪除掉;

圖片

對應(yīng)到群離線消息的拉取也一樣:

  • 步驟1:先拉取msg_id;
  • 步驟3:再拉取msg_detail;
  • 步驟5:最后應(yīng)用層ACK;
  • 步驟6:server收到應(yīng)用層ACK才能刪除離線消息表里的msg_id;

如果拉取了消息,卻沒來得及應(yīng)用層ACK,會收到重復(fù)的消息么?

似乎會,但可以在客戶端去重,對于重復(fù)的msg_id,對用戶不展現(xiàn),從而不影響用戶體驗。

對于離線的每一條消息,雖然只存儲了msg_id,但是每個用戶的每一條離線消息都將在數(shù)據(jù)庫中保存一條記錄,有沒有辦法減少離線消息的記錄數(shù)呢?

對于一個群用戶,在ta登出后的離線期間內(nèi),肯定是所有的群消息都沒有收到的,完全不用對所有的每一條離線消息存儲一個離線msg_id,而只需要存儲最近一條拉取到的離線消息的time(或者msg_id),下次登錄時拉取在那之后的所有群消息即可,而完全沒有必要存儲每個人未拉取到的離線消息msg_id。

群成員表,增加一個屬性:

t_group_users(group_id, user_id, last_ack_msg_id)

畫外音:用來描述一個群里有多少成員,以及每個成員最后一條ack的群消息的msg_id(或者time)。

群消息表,不變:

t_group_msgs(group_id, sender_id, time,msg_id, msg_detail)

畫外音:還是用來存儲一個群中所有的消息內(nèi)容。

群離線消息表:不再需要。

圖片

離線消息表優(yōu)化后,群在線消息的投遞流程:

  • 步驟3:在消息msg_detail存儲到群消息表后,不再需要操作離線消息表(優(yōu)化前需要將msg_id插入離線消息表);
  • 步驟7:在線的用戶A和B在應(yīng)用層ACK后,將last_ack_msg_id更新即可(優(yōu)化前需要將msg_id從離線消息表刪除);

群離線消息的拉取流程也類似:

  • 步驟1:拉取離線消息;
  • 步驟3:ACK離線消息;
  • 步驟4:更新last_ack_msg_id;

加入ACK機制,保證群消息的可靠投遞只會,假設(shè)1個群有500個用戶,“每條”群消息都會變?yōu)?00個應(yīng)用層ACK,似乎會對服務(wù)器造成巨大的沖擊。有沒有辦法減少ACK請求量呢?

批量ACK,是一種常見的,降低請求量的方式。

如果每條群消息都ACK,確實會給服務(wù)器造成巨大的沖擊,為了減少ACK請求量,可以批量ACK,批量ACK的方式又有兩種方式:

  • 每收到N條群消息ACK一次,這樣請求量就降低為原來的1/N了;
  • 每隔時間間隔T進(jìn)行一次群消息ACK,也能達(dá)到類似的效果;

批量ACK有可能導(dǎo)致新的問題:如果還沒有來得及ACK群消息,用戶就退出了,這樣下次登錄似乎會拉取到重復(fù)的離線消息,怎么辦?

客戶端按照msg_id去重,不對用戶展現(xiàn),就保證良好的用戶體驗。

群離線消息過多,拉取過慢,怎么辦?

分頁拉?。ò葱枥。?xì)節(jié)就不再展開了,都是常見的優(yōu)化方案。

總結(jié)

群消息還是非常有意思的,做個簡單總結(jié):

  • 不管是群在線消息,還是群離線消息,應(yīng)用層的ACK是可達(dá)性的保障;
  • 群消息只存一份,不用為每個用戶存儲離線群msg_id,只需存儲一個最近ack的群消息id/time;
  • 為了減少消息風(fēng)暴,可以批量ACK;
  • 如果收到重復(fù)消息,需要msg_id去重,讓用戶無感知;
  • 離線消息過多,可以分頁拉?。ò葱枥。﹥?yōu)化;

思路比結(jié)論重要,希望大家有收獲。?

責(zé)任編輯:趙寧寧 來源: 架構(gòu)師之路
相關(guān)推薦

2019-01-31 10:15:14

群聊單聊消息

2020-09-07 10:23:01

MySQL索引查詢

2020-09-07 13:05:17

MySQL面試索引

2017-06-06 16:30:55

戴爾交付保障

2017-12-21 19:38:50

潤乾中間表

2022-07-26 23:43:29

編程語言開發(fā)Java

2013-01-15 09:41:45

編程語言

2024-04-02 08:41:10

ArrayListSubList場景

2017-08-11 14:21:33

軟件開發(fā)前端框架

2023-07-17 08:21:52

漏洞版本項目

2016-12-01 13:40:37

2018-06-26 15:00:24

Docker安全風(fēng)險

2024-07-12 09:35:38

前端工具檢驗

2023-11-13 08:49:54

2024-02-20 08:09:51

Java 8DateUtilsDate工具類

2018-12-21 09:36:31

OLAP蘇寧Druid

2021-01-14 05:08:44

編譯鏈接

2021-01-29 08:52:10

App微信移動應(yīng)用

2015-06-25 13:31:19

2021-09-08 22:38:56

區(qū)塊鏈公有鏈網(wǎng)絡(luò)
點贊
收藏

51CTO技術(shù)棧公眾號