自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

如何設計一個高并發(fā)系統(tǒng)?

數(shù)據(jù)庫 其他數(shù)據(jù)庫
今天這篇文章跟大家一起聊聊高并發(fā)系統(tǒng)設計一些關鍵點,希望對你會有所幫助。對于高并發(fā)系統(tǒng)的頁面功能,我們必須要做靜態(tài)化設計。如果并發(fā)訪問系統(tǒng)的用戶非常多,每次用戶訪問頁面的時候,都通過服務器動態(tài)渲染,會導致服務端承受過大的壓力,而導致頁面無法正常加載的情況發(fā)生。

前言

最近有位粉絲問了我一個問題:如何設計一個高并發(fā)系統(tǒng)?

這是一個非常高頻的面試題,面試官可以從多個角度,考查技術的廣度和深度。

今天這篇文章跟大家一起聊聊高并發(fā)系統(tǒng)設計一些關鍵點,希望對你會有所幫助。

1、頁面靜態(tài)化

對于高并發(fā)系統(tǒng)的頁面功能,我們必須要做靜態(tài)化設計。

如果并發(fā)訪問系統(tǒng)的用戶非常多,每次用戶訪問頁面的時候,都通過服務器動態(tài)渲染,會導致服務端承受過大的壓力,而導致頁面無法正常加載的情況發(fā)生。

我們可以使用Freemarker或Velocity模板引擎,實現(xiàn)頁面靜態(tài)化功能。

以商城官網(wǎng)首頁為例,我們可以在Job中,每隔一段時間,查詢出所有需要在首頁展示的數(shù)據(jù),匯總到一起,使用模板引擎生成到html文件當中。

然后將該html文件,通過shell腳本,自動同步到前端頁面相關的服務器上。

2、CSDN加速

雖說頁面靜態(tài)化可以提升網(wǎng)站網(wǎng)頁的訪問速度,但還不夠,因為用戶分布在全國各地,有些人在北京,有些人在成都,有些人在深圳,地域相差很遠,他們訪問網(wǎng)站的網(wǎng)速各不相同。

如何才能讓用戶最快訪問到活動頁面呢?

這就需要使用CDN,它的全稱是Content Delivery Network,即內(nèi)容分發(fā)網(wǎng)絡。

使用戶就近獲取所需內(nèi)容,降低網(wǎng)絡擁塞,提高用戶訪問響應速度和命中率。

CDN加速的基本原理是:將網(wǎng)站的靜態(tài)內(nèi)容(如圖片、CSS、JavaScript文件等)復制并存儲到分布在全球各地的服務器節(jié)點上。

當用戶請求訪問網(wǎng)站時,CDN系統(tǒng)會根據(jù)用戶的地理位置,自動將內(nèi)容分發(fā)給離用戶最近的服務器,從而實現(xiàn)快速訪問。

國內(nèi)常見的CDN提供商有阿里云CDN、騰訊云CDN、百度云加速等,它們提供了全球分布的節(jié)點服務器,為全球范圍內(nèi)的網(wǎng)站加速服務。

3、緩存

在高并發(fā)的系統(tǒng)中,緩存可以說是必不可少的技術之一。

目前緩存有兩種:

  1. 基于應用服務器的內(nèi)存緩存,也就是我們說的二級緩存。
  2. 使用緩存中間件,比如:Redis、Memcached等,這種是分布式緩存。

這兩種緩存各有優(yōu)缺點。

二級緩存的性能更好,但因為是基于應用服務器內(nèi)存的緩存,如果系統(tǒng)部署到了多個服務器節(jié)點,可能會存在數(shù)據(jù)不一致的情況。

而Redis或Memcached雖說性能上比不上二級緩存,但它們是分布式緩存,避免多個服務器節(jié)點數(shù)據(jù)不一致的問題。

緩存的用法一般是這樣的:

使用緩存之后,可以減輕訪問數(shù)據(jù)庫的壓力,顯著的提升系統(tǒng)的性能。

有些業(yè)務場景,甚至會分布式緩存和二級緩存一起使用。

比如獲取商品分類數(shù)據(jù),流程如下:

不過引入緩存,雖說給我們的系統(tǒng)性能帶來了提升,但同時也給我們帶來了一些新的問題,比如:《數(shù)據(jù)庫和緩存雙向數(shù)據(jù)庫一致性問題》、《緩存穿透、擊穿和雪崩問題》等。

我們在使用緩存時,一定要結合實際業(yè)務場景,切記不要為了緩存而緩存。

4、異步

有時候,我們在高并發(fā)系統(tǒng)當中,某些接口的業(yè)務邏輯,沒必要都同步執(zhí)行。

比如有個用戶請求接口中,需要做業(yè)務操作,發(fā)站內(nèi)通知,和記錄操作日志。為了實現(xiàn)起來比較方便,通常我們會將這些邏輯放在接口中同步執(zhí)行,勢必會對接口性能造成一定的影響。

接口內(nèi)部流程圖如下:

這個接口表面上看起來沒有問題,但如果你仔細梳理一下業(yè)務邏輯,會發(fā)現(xiàn)只有業(yè)務操作才是核心邏輯,其他的功能都是非核心邏輯。

在這里有個原則就是:核心邏輯可以同步執(zhí)行,同步寫庫。非核心邏輯,可以異步執(zhí)行,異步寫庫。

上面這個例子中,發(fā)站內(nèi)通知和用戶操作日志功能,對實時性要求不高,即使晚點寫庫,用戶無非是晚點收到站內(nèi)通知,或者運營晚點看到用戶操作日志,對業(yè)務影響不大,所以完全可以異步處理。

通常異步主要有兩種:多線程 和 mq。

(1)線程池

使用線程池改造之后,接口邏輯如下:

發(fā)站內(nèi)通知和用戶操作日志功能,被提交到了兩個單獨的線程池中。

這樣接口中重點關注的是業(yè)務操作,把其他的邏輯交給線程異步執(zhí)行,這樣改造之后,讓接口性能瞬間提升了。

但使用線程池有個小問題就是:如果服務器重啟了,或者是需要被執(zhí)行的功能出現(xiàn)異常了,無法重試,會丟數(shù)據(jù)。

那么這個問題該怎么辦呢?

(2)mq

使用mq改造之后,接口邏輯如下:

對于發(fā)站內(nèi)通知和用戶操作日志功能,在接口中并沒真正實現(xiàn),它只發(fā)送了mq消息到mq服務器。然后由mq消費者消費消息時,才真正的執(zhí)行這兩個功能。

這樣改造之后,接口性能同樣提升了,因為發(fā)送mq消息速度是很快的,我們只需關注業(yè)務操作的代碼即可。

5、多線程處理

在高并發(fā)系統(tǒng)當中,用戶的請求量很大。

假如我們現(xiàn)在用mq處理業(yè)務邏輯。

一下子有大量的用戶請求,產(chǎn)生了大量的mq消息,保存到了mq服務器。

而mq的消費者,消費速度很慢。

可能會導致大量的消息積壓問題。

從而嚴重影響數(shù)據(jù)的實時性。

我們需要對消息的消費者做優(yōu)化。

最快的方式是使用多線程消費消息,比如:改成線程池消費消息。

當然核心線程數(shù)、最大線程數(shù)、隊列大小 和 線程回收時間,一定要做成配置的,后面可以根據(jù)實際情況動態(tài)調(diào)整。

這樣改造之后,我們可以快速解決消息積壓問題。

除此之外,在很多數(shù)據(jù)導入場景,用多線程導入數(shù)據(jù),可以提升效率。

溫馨提醒一下:使用多線程消費消息,可能會出現(xiàn)消息的順序問題。如果你的業(yè)務場景中,需要保證消息的順序,則要用其他的方式解決問題。感興趣的小伙伴,可以找我私聊。

6、分庫分表

有時候,高并發(fā)系統(tǒng)的吞吐量受限的不是別的,而是數(shù)據(jù)庫。

當系統(tǒng)發(fā)展到一定的階段,用戶并發(fā)量大,會有大量的數(shù)據(jù)庫請求,需要占用大量的數(shù)據(jù)庫連接,同時會帶來磁盤IO的性能瓶頸問題。

此外,隨著用戶數(shù)量越來越多,產(chǎn)生的數(shù)據(jù)也越來越多,一張表有可能存不下。由于數(shù)據(jù)量太大,sql語句查詢數(shù)據(jù)時,即使走了索引也會非常耗時。

這時該怎么辦呢?

答:需要做分庫分表。

如下圖所示:

圖中將用戶庫拆分成了三個庫,每個庫都包含了四張用戶表。

如果有用戶請求過來的時候,先根據(jù)用戶id路由到其中一個用戶庫,然后再定位到某張表。

路由的算法挺多的:

  • 根據(jù)id取模,比如:id=7,有4張表,則7%4=3,模為3,路由到用戶表3。
  • 給id指定一個區(qū)間范圍,比如:id的值是0-10萬,則數(shù)據(jù)存在用戶表0,id的值是10-20萬,則數(shù)據(jù)存在用戶表1。
  • 一致性hash算法

分庫分表主要有兩個方向:垂直和水平。

說實話垂直方向(即業(yè)務方向)更簡單。

在水平方向(即數(shù)據(jù)方向)上,分庫和分表的作用,其實是有區(qū)別的,不能混為一談。

  • 分庫:是為了解決數(shù)據(jù)庫連接資源不足問題,和磁盤IO的性能瓶頸問題。
  • 分表:是為了解決單表數(shù)據(jù)量太大,sql語句查詢數(shù)據(jù)時,即使走了索引也非常耗時問題。此外還可以解決消耗cpu資源問題。
  • 分庫分表:可以解決 數(shù)據(jù)庫連接資源不足、磁盤IO的性能瓶頸、檢索數(shù)據(jù)耗時 和 消耗cpu資源等問題。

如果在有些業(yè)務場景中,用戶并發(fā)量很大,但是需要保存的數(shù)據(jù)量很少,這時可以只分庫,不分表。

如果在有些業(yè)務場景中,用戶并發(fā)量不大,但是需要保存的數(shù)量很多,這時可以只分表,不分庫。

如果在有些業(yè)務場景中,用戶并發(fā)量大,并且需要保存的數(shù)量也很多時,可以分庫分表。

關于分庫分表更詳細的內(nèi)容,可以看看我另一篇文章,里面講的更深入《阿里二面:為什么分庫分表?》

7、池化技術

其實不光是高并發(fā)系統(tǒng),為了性能考慮,有些低并發(fā)的系統(tǒng),也在使用池化技術,比如:數(shù)據(jù)庫連接池、線程池等。

池化技術是多例設計模式的一個體現(xiàn)。

我們都知道創(chuàng)建和銷毀數(shù)據(jù)庫連接是非常耗時耗資源的操作。

如果每次用戶請求,都需要創(chuàng)建一個新的數(shù)據(jù)庫連接,勢必會影響程序的性能。

為了提升性能,我們可以創(chuàng)建一批數(shù)據(jù)庫連接,保存到內(nèi)存中的某個集合中,緩存起來。

這樣的話,如果下次有需要用數(shù)據(jù)庫連接的時候,就能直接從集合中獲取,不用再額外創(chuàng)建數(shù)據(jù)庫連接,這樣處理將會給我們提升系統(tǒng)性能。

當然用完之后,需要及時歸還。

目前常用的數(shù)據(jù)庫連接池有:Druid、C3P0、hikari和DBCP等。

8、讀寫分離

不知道你有沒有聽說過二八原則,在一個系統(tǒng)當中可能有80%是讀數(shù)據(jù)請求,另外20%是寫數(shù)據(jù)請求。

不過這個比例也不是絕對的。

我想告訴大家的是,一般的系統(tǒng)讀數(shù)據(jù)請求會遠遠大于寫數(shù)據(jù)請求。

如果讀數(shù)據(jù)請求和寫數(shù)據(jù)請求,都訪問同一個數(shù)據(jù)庫,可能會相互搶占數(shù)據(jù)庫連接,相互影響。

我們都知道,一個數(shù)據(jù)庫的數(shù)據(jù)庫連接數(shù)量是有限,是非常寶貴的資源,不能因為讀數(shù)據(jù)請求,影響到寫數(shù)據(jù)請求吧?

這就需要對數(shù)據(jù)庫做讀寫分離了。

于是,就出現(xiàn)了主從讀寫分離架構:

考慮剛開始用戶量還沒那么大,選擇的是一主一從的架構,也就是常說的一個master,一個slave。

所有的寫數(shù)據(jù)請求,都指向主庫。一旦主庫寫完數(shù)據(jù)之后,立馬異步同步給從庫。這樣所有的讀數(shù)據(jù)請求,就能及時從從庫中獲取到數(shù)據(jù)了(除非網(wǎng)絡有延遲)。

但這里有個問題就是:如果用戶量確實有些大,如果master掛了,升級slave為master,將所有讀寫請求都指向新master。

但此時,如果這個新master根本扛不住所有的讀寫請求,該怎么辦?

這就需要一主多從的架構了:

上圖中我列的是一主兩從,如果master掛了,可以選擇從庫1或從庫2中的一個,升級為新master。假如我們在這里升級從庫1為新master,則原來的從庫2就變成了新master的的slave了。

調(diào)整之后的架構圖如下:

這樣就能解決上面的問題了。

除此之外,如果查詢請求量再增大,我們還可以將架構升級為一主三從、一主四從...一主N從等。

9、索引

在高并發(fā)的系統(tǒng)當中,用戶經(jīng)常需要查詢數(shù)據(jù),對數(shù)據(jù)庫增加索引,是必不可少的一個環(huán)節(jié)。

尤其是表中數(shù)據(jù)非常多時,加了索引,跟沒加索引,執(zhí)行同一條sql語句,查詢相同的數(shù)據(jù),耗時可能會相差N個數(shù)量級。

雖說索引能夠提升SQL語句的查詢速度,但索引也不是越多越好。

在insert數(shù)據(jù)時,需要給索引分配額外的資源,對insert的性能有一定的損耗。

我們要根據(jù)實際業(yè)務場景來決定創(chuàng)建哪些索引,索引少了,影響查詢速度,索引多了,影響寫入速度。

很多時候,我們需要經(jīng)常對索引做優(yōu)化。

  1. 可以將多個單個索引,改成一個聯(lián)合索引。
  2. 刪除不要索引。
  3. 使用explain關鍵字,查詢SQL語句的執(zhí)行計劃,看看哪些走了索引,哪些沒有走索引。
  4. 要注意索引失效的一些場景。
  5. 必要時可以使用force index來強制查詢sql走某個索引。

10、批處理

有時候,我們需要從指定的用戶集合中,查詢出有哪些是在數(shù)據(jù)庫中已經(jīng)存在的。

實現(xiàn)代碼可以這樣寫:

public List<User> queryUser(List<User> searchList) {
    if (CollectionUtils.isEmpty(searchList)) {
        return Collections.emptyList();
    }

    List<User> result = Lists.newArrayList();
    searchList.forEach(user -> result.add(userMapper.getUserById(user.getId())));
    return result;
}

這里如果有50個用戶,則需要循環(huán)50次,去查詢數(shù)據(jù)庫。我們都知道,每查詢一次數(shù)據(jù)庫,就是一次遠程調(diào)用。

如果查詢50次數(shù)據(jù)庫,就有50次遠程調(diào)用,這是非常耗時的操作。

那么,我們?nèi)绾蝺?yōu)化呢?

答:批處理。

具體代碼如下:

public List<User> queryUser(List<User> searchList) {
    if (CollectionUtils.isEmpty(searchList)) {
        return Collections.emptyList();
    }
    List<Long> ids = searchList.stream().map(User::getId).collect(Collectors.toList());
    return userMapper.getUserByIds(ids);
}

提供一個根據(jù)用戶id集合批量查詢用戶的接口,只遠程調(diào)用一次,就能查詢出所有的數(shù)據(jù)。

這里有個需要注意的地方是:id集合的大小要做限制,最好一次不要請求太多的數(shù)據(jù)。要根據(jù)實際情況而定,建議控制每次請求的記錄條數(shù)在500以內(nèi)。

11、集群

系統(tǒng)部署的服務器節(jié)點,可能會down機,比如:服務器的磁盤壞了,或者操作系統(tǒng)出現(xiàn)內(nèi)存不足問題。

為了保證系統(tǒng)的高可用,我們需要部署多個節(jié)點,構成一個集群,防止因為部分服務器節(jié)點掛了,導致系統(tǒng)的整個服務不可用的情況發(fā)生。

集群有很多種:

  • 應用服務器集群
  • 數(shù)據(jù)庫集群
  • 中間件集群
  • 文件服務器集群

我們以中間件Redis為例。

在高并發(fā)系統(tǒng)中,用戶的數(shù)據(jù)量非常龐大時,比如用戶的緩存數(shù)據(jù)總共大小有40G,一個服務器節(jié)點只有16G的內(nèi)存。

這樣需要部署3臺服務器節(jié)點。

該業(yè)務場景,使用普通的master/slave模式,或者使用哨兵模式都行不通。

40G的數(shù)據(jù),不能只保存到一臺服務器節(jié)點,需要均分到3個master服務器節(jié)點上,一個master服務器節(jié)點保存13.3G的數(shù)據(jù)。

當有用戶請求過來的時候,先經(jīng)過路由,根據(jù)用戶的id或者ip,每次都訪問指定的服務器節(jié)點。

這用就構成了一個集群。

但這樣有風險,為了防止其中一個master服務器節(jié)點掛掉,導致部分用戶的緩存訪問不了,還需要對數(shù)據(jù)做備份。

這樣每一個master,都需要有一個slave,做數(shù)據(jù)備份。

如果master掛了,可以將slave升級為新的master,而不影響用戶的正常使用。

12、負載均衡

如果我們的系統(tǒng)部署到了多臺服務器節(jié)點。那么哪些用戶的請求,訪問節(jié)點a,哪些用戶的請求,訪問節(jié)點b,哪些用戶的請求,訪問節(jié)點c?

我們需要某種機制,將用戶的請求,轉(zhuǎn)發(fā)到具體的服務器節(jié)點上。

這就需要使用負載均衡機制了。

在linux下有Nginx、LVS、Haproxy等服務可以提供負載均衡服務。

在SpringCloud微服務架構中,大部分使用的負載均衡組件就是Ribbon、OpenFegin或SpringCloud Loadbalancer。

硬件方面,可以使用F5實現(xiàn)負載均衡。它可以基于交換機實現(xiàn)負載均衡,性能更好,但是價格更貴一些。

常用的負載均衡策略有:

  • 輪詢:每個請求按時間順序逐一分配到不同的服務器節(jié)點,如果服務器節(jié)點down掉,能自動剔除。
  • weight權重:weight代表權重默認為1,權重越高,服務器節(jié)點被分配到的概率越大。weight和訪問比率成正比,用于服務器節(jié)點性能不均的情況。
  • ip hash:每個請求按訪問ip的hash結果分配, 這樣每個訪客固定訪問同一個服務器節(jié)點,它是解訣Session共享的問題的解決方案之一。
  • 最少連接數(shù):把請求轉(zhuǎn)發(fā)給連接數(shù)較少的服務器節(jié)點。輪詢算法是把請求平均的轉(zhuǎn)發(fā)給各個服務器節(jié)點,使它們的負載大致相同;但有些請求占用的時間很長,會導致其所在的服務器節(jié)點負載較高。這時least_conn方式就可以達到更好的負載均衡效果。
  • 最短響應時間:按服務器節(jié)點的響應時間來分配請求,響應時間短的服務器節(jié)點優(yōu)先被分配。

當然還有其他的策略,在這里就不給大家一一介紹了。

13、限流

對于高并發(fā)系統(tǒng),為了保證系統(tǒng)的穩(wěn)定性,需要對用戶的請求量做限流

特別是秒殺系統(tǒng)中,如果不做任何限制,絕大部分商品可能是被機器搶到,而非正常的用戶,有點不太公平。

所以,我們有必要識別這些非法請求,做一些限制。那么,我們該如何現(xiàn)在這些非法請求呢?

目前有兩種常用的限流方式:

  • 基于nginx限流
  • 基于redis限流

(1)對同一用戶限流

為了防止某個用戶,請求接口次數(shù)過于頻繁,可以只針對該用戶做限制。

限制同一個用戶id,比如每分鐘只能請求5次接口。

(2)對同一ip限流

有時候只對某個用戶限流是不夠的,有些高手可以模擬多個用戶請求,這種nginx就沒法識別了。

這時需要加同一ip限流功能。

限制同一個ip,比如每分鐘只能請求5次接口。

但這種限流方式可能會有誤殺的情況,比如同一個公司或網(wǎng)吧的出口ip是相同的,如果里面有多個正常用戶同時發(fā)起請求,有些用戶可能會被限制住。

(3)對接口限流

別以為限制了用戶和ip就萬事大吉,有些高手甚至可以使用代理,每次都請求都換一個ip。

這時可以限制請求的接口總次數(shù)。

在高并發(fā)場景下,這種限制對于系統(tǒng)的穩(wěn)定性是非常有必要的。但可能由于有些非法請求次數(shù)太多,達到了該接口的請求上限,而影響其他的正常用戶訪問該接口??雌饋碛悬c得不償失。

(4)加驗證碼

相對于上面三種方式,加驗證碼的方式可能更精準一些,同樣能限制用戶的訪問頻次,但好處是不會存在誤殺的情況。

通常情況下,用戶在請求之前,需要先輸入驗證碼。用戶發(fā)起請求之后,服務端會去校驗該驗證碼是否正確。只有正確才允許進行下一步操作,否則直接返回,并且提示驗證碼錯誤。

此外,驗證碼一般是一次性的,同一個驗證碼只允許使用一次,不允許重復使用。

普通驗證碼,由于生成的數(shù)字或者圖案比較簡單,可能會被破解。優(yōu)點是生成速度比較快,缺點是有安全隱患。

還有一個驗證碼叫做:移動滑塊,它生成速度比較慢,但比較安全,是目前各大互聯(lián)網(wǎng)公司的首選。

14、服務降級

前面已經(jīng)說過,對于高并發(fā)系統(tǒng),為了保證系統(tǒng)的穩(wěn)定性,需要做限流。

但光做限流還不夠。

我們需要合理利用服務器資源,保留核心的功能,將部分非核心的功能,我們可以選擇屏蔽或者下線掉。

我們需要做服務降級。

我們在設計高并發(fā)系統(tǒng)時,可以預留一些服務降級的開關。

比如在秒殺系統(tǒng)中,核心的功能是商品的秒殺,對于商品的評論功能,可以暫時屏蔽掉。

在服務端的分布式配置中心,比如:apollo中,可以增加一個開關,配置是否展示評論功能,默認是true。

前端頁面通過服務器的接口,獲取到該配置參數(shù)。

如果需要暫時屏蔽商品評論功能,可以將apollo中的參數(shù)設置成false。

此外,我們在設計高并發(fā)系統(tǒng)時,還可以預留一些兜底方案。

比如某個分類查詢接口,要從redis中獲取分類數(shù)據(jù),返回給用戶。但如果那一條redis掛了,則查詢數(shù)據(jù)失敗。

這時候,我們可以增加一個兜底方案。

如果從redis中獲取不到數(shù)據(jù),則從apollo中獲取一份默認的分類數(shù)據(jù)。

目前使用較多的熔斷降級中間件是:Hystrix 和 Sentinel。

  • Hystrix是Netflix開源的熔斷降級組件。
  • Sentinel是阿里中間件團隊開源的一款不光具有熔斷降級功能,同時還支持系統(tǒng)負載保護的組件。

二者的區(qū)別如下圖所示:

15、故障轉(zhuǎn)移

在高并發(fā)的系統(tǒng)當中,同一時間有大量的用戶訪問系統(tǒng)。

如果某一個應用服務器節(jié)點處于假死狀態(tài),比如CPU使用率100%了,用戶的請求沒辦法及時處理,導致大量用戶出現(xiàn)請求超時的情況。

如果這種情況下,不做任何處理,可能會影響系統(tǒng)中部分用戶的正常使用。

這時我們需要建立故障轉(zhuǎn)移機制。

當檢測到經(jīng)常接口超時,或者CPU打滿,或者內(nèi)存溢出的情況,能夠自動重啟那臺服務器節(jié)點上的應用。

在SpringCloud微服務當中,可以使用Ribbon做負載均衡器。

Ribbon是Spring Cloud中的一個負載均衡器組件,它可以檢測服務的可用性,并根據(jù)一定規(guī)則將請求分發(fā)至不同的服務節(jié)點。在使用Ribbon時,需要注意以下幾個方面:

  1. 設置請求超時時間,當請求超時時,Ribbon會自動將請求轉(zhuǎn)發(fā)到其他可用的服務上。
  2. 設置服務的健康檢查,Ribbon會自動檢測服務的可用性,并將請求轉(zhuǎn)發(fā)至可用的服務上。

此外,還需要使用Hystrix做熔斷處理。

Hystrix是SpringCloud中的一個熔斷器組件,它可以自動地監(jiān)測所有通過它調(diào)用的服務,并在服務出現(xiàn)故障時自動切換到備用服務。在使用Hystrix時,需要注意以下幾個方面:

  1. 設置斷路器的閾值,當故障率超過一定閾值后,斷路器會自動切換到備用服務上。
  2. 設置服務的超時時間,如果服務在指定的時間內(nèi)無法返回結果,斷路器會自動切換到備用服務上。到其他的能夠正常使用的服務器節(jié)點上。

16、異地多活

有些高并發(fā)系統(tǒng),為了保證系統(tǒng)的穩(wěn)定性,不只部署在一個機房當中。

為了防止機房斷電,或者某些不可逆的因素,比如:發(fā)生地震,導致機房掛了。

需要把系統(tǒng)部署到多個機房。

我們之前的游戲登錄系統(tǒng),就部署到了深圳、天津和成都,這三個機房。

這三個機房都有用戶的流量,其中深圳機房占了40%,天津機房占了30%,成都機房占了30%。

如果其中的某個機房突然掛了,流量會被自動分配到另外兩個機房當中,不會影響用戶的正常使用。

這就需要使用異地多活架構了。

用戶請求先經(jīng)過第三方的DNS服務器解析,然后該用戶請求到達路由服務器,部署在云服務器上。

路由服務器,根據(jù)一定的算法,會將該用戶請求分配到具體的機房。

異地多活的難度是多個機房需要做數(shù)據(jù)同步,如何保證數(shù)據(jù)的一致性?

17、壓測

高并發(fā)系統(tǒng),在上線之前,必須要做的一件事是做壓力測試。

我們先要預估一下生產(chǎn)環(huán)境的請求量,然后對系統(tǒng)做壓力測試,之后評估系統(tǒng)需要部署多少個服務器節(jié)點。

比如預估有10000的qps,一個服務器節(jié)點最大支持1000pqs,這樣我們需要部署10個服務器節(jié)點。

但假如只部署10個服務器節(jié)點,萬一突增了一些新的用戶請求,服務器可能會扛不住壓力。

因此,部署的服務器節(jié)點,需要把預估用戶請求量的多一些,比如:按3倍的用戶請求量來計算。

這樣我們需要部署30個服務器節(jié)點。

壓力測試的結果跟環(huán)境有關,在dev環(huán)境或者test環(huán)境,只能壓測一個大概的趨勢。

想要更真實的數(shù)據(jù),我們需要在pre環(huán)境,或者跟生產(chǎn)環(huán)境相同配置的專門的壓測環(huán)境中,進行壓力測試。

目前市面上做壓力測試的工具有很多,比如開源的有:Jemter、LoaderRunnder、Locust等等。

收費的有:阿里自研的云壓測工具PTS。

18、監(jiān)控

為了出現(xiàn)系統(tǒng)或者SQL問題時,能夠讓我們及時發(fā)現(xiàn),我們需要對系統(tǒng)做監(jiān)控。

目前業(yè)界使用比較多的開源監(jiān)控系統(tǒng)是:Prometheus。

它提供了 監(jiān)控 和 預警 的功能。

架構圖如下:

我們可以用它監(jiān)控如下信息:

  • 接口響應時間
  • 調(diào)用第三方服務耗時
  • 慢查詢sql耗時
  • cpu使用情況
  • 內(nèi)存使用情況
  • 磁盤使用情況
  • 數(shù)據(jù)庫使用情況

等等。。。

它的界面大概長這樣子:

可以看到mysql當前qps,活躍線程數(shù),連接數(shù),緩存池的大小等信息。

如果發(fā)現(xiàn)數(shù)據(jù)量連接池占用太多,對接口的性能肯定會有影響。

這時可能是代碼中開啟了連接忘了關,或者并發(fā)量太大了導致的,需要做進一步排查和系統(tǒng)優(yōu)化。

截圖中只是它一小部分功能,如果你想了解更多功能,可以訪問Prometheus的官網(wǎng):https://prometheus.io/

其實,高并發(fā)的系統(tǒng)中,還需要考慮安全問題,比如:

  • 遇到用戶不斷變化ip刷接口怎辦?
  • 遇到用戶大量訪問緩存中不存在的數(shù)據(jù),導致緩存雪崩怎么辦?
  • 如果用戶發(fā)起ddos攻擊怎么辦?
  • 用戶并發(fā)量突增,導致服務器扛不住了,如何動態(tài)擴容?
責任編輯:姜華 來源: 蘇三說技術
相關推薦

2023-09-08 08:22:30

2021-04-28 08:52:22

高并發(fā)架構設高并發(fā)系統(tǒng)

2019-07-31 07:36:12

架構運維技術

2023-11-10 16:18:59

2019-08-01 08:36:51

緩存系統(tǒng)并發(fā)

2025-04-29 02:00:00

高并發(fā)系統(tǒng)場景

2025-04-30 08:56:34

2018-09-18 09:38:11

RPC遠程調(diào)用網(wǎng)絡通信

2020-07-27 07:53:36

高并發(fā)流量系統(tǒng)

2024-08-27 12:49:20

2020-09-02 07:22:17

JavaScript插件框架

2013-08-14 10:48:23

實時計算流計算

2024-04-24 10:38:22

2024-11-20 13:18:21

2021-05-24 09:28:41

軟件開發(fā) 技術

2025-02-20 00:01:00

2022-07-18 08:02:16

秒殺系統(tǒng)后端

2025-01-22 08:00:00

架構秒殺系統(tǒng)Java

2024-06-17 11:59:39

2020-03-26 09:36:06

AB Test平臺的流量
點贊
收藏

51CTO技術棧公眾號