自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一個(gè)完整的全面Kubernetes化的集群穩(wěn)定架構(gòu)

開發(fā) 前端
重構(gòu)發(fā)版流程。業(yè)務(wù)全面Kubernetes化,構(gòu)建以Kubernetes為核心的CI/CD流程。

 [[422569]]

前言

我司的集群時(shí)刻處于崩潰的邊緣,通過近三個(gè)月的掌握,發(fā)現(xiàn)我司的集群不穩(wěn)定的原因有以下幾點(diǎn):

  1. 發(fā)版流程不穩(wěn)定
  2. 缺少監(jiān)控平臺(tái)(最重要的原因)
  3. 缺少日志系統(tǒng)
  4. 極度缺少有關(guān)操作文檔
  5. 請(qǐng)求路線不明朗

總的來(lái)看,問題的主要原因是缺少可預(yù)知的監(jiān)控平臺(tái),總是等問題出現(xiàn)了才知道。次要的原因是服務(wù)器作用不明朗和發(fā)版流程的不穩(wěn)定。

解決方案

發(fā)版流程不穩(wěn)定

重構(gòu)發(fā)版流程。業(yè)務(wù)全面Kubernetes化,構(gòu)建以Kubernetes為核心的CI/CD流程。

發(fā)版流程

有關(guān)發(fā)版流程如下:

淺析:研發(fā)人員提交代碼到developer分支(時(shí)刻確保developer分支處于最新的代碼),developer分支合并到需要發(fā)版環(huán)境對(duì)應(yīng)的分支,觸發(fā)企業(yè)微信告警,觸發(fā)部署在Kubernetes集群的gitlab-runner Pod,新啟runner Pod 執(zhí)行CI/CD操作。在這個(gè)過程中需要有三個(gè)步驟:測(cè)試用例、打包鏡像、更新Pod。第一次部署服務(wù)在Kubernetes集群環(huán)境的時(shí)候可能需要:創(chuàng)建Namespace、創(chuàng)建imagePullSecret、創(chuàng)建PV(StorageClass)、創(chuàng)建deployment(Pod controller)、創(chuàng)建SVC、創(chuàng)建Ingress等。其中鏡像打包推送阿里云倉(cāng)庫(kù)和從阿里云倉(cāng)庫(kù)下載鏡像使用VPC訪問,不走公網(wǎng),無(wú)網(wǎng)速限制。流程完畢,runner Pod銷毀,GitLab返回結(jié)果。

需要強(qiáng)調(diào)的一點(diǎn)是,在這里的資源清單不包含ConfigMap或者Secret,牽扯到安全性的問題,不應(yīng)該出現(xiàn)在代碼倉(cāng)庫(kù)中,我司是使用Rancher充當(dāng)Kubernetes多集群管理平臺(tái),上述安全問題在Rancher的Dashboard中由運(yùn)維來(lái)做的。

服務(wù)部署邏輯圖

有關(guān)服務(wù)部署邏輯圖如下:

根據(jù)發(fā)版流程的淺析,再根據(jù)邏輯圖可以明確發(fā)版流程。在這里看到我司使用的是Kong代替Nginx,做認(rèn)證、鑒權(quán)、代理。而SLB的IP綁定在Kong上。0,1,2屬于test job;3屬于build job;4,5,6,7屬于change pod 階段。并非所有的服務(wù)都需要做存儲(chǔ),需要根據(jù)實(shí)際情況來(lái)定,所以需要在kubernetes.sh里寫判斷。在這里我試圖使用一套CI應(yīng)用與所有的環(huán)境,所以需要在kubernetes.sh中用到的判斷較多,且.gitlab-ci.yml顯得過多。建議是使用一個(gè)CI模版,應(yīng)用于所有的環(huán)境,畢竟怎么省事怎么來(lái)。還要考慮自己的分支模式,具體參考: https://www.cnblogs.com/zisefeizhu/p/13621797.html

缺少監(jiān)控預(yù)警平臺(tái)

構(gòu)建可信賴且符合我司集群環(huán)境的聯(lián)邦監(jiān)控平臺(tái),實(shí)現(xiàn)對(duì)幾個(gè)集群環(huán)境的同時(shí)監(jiān)控和預(yù)故障告警,提前介入。

監(jiān)控預(yù)警邏輯圖

有關(guān)監(jiān)控預(yù)警邏輯圖如下:

淺析:總的來(lái)說,我這里使用到的監(jiān)控方案是Prometheus + Shell腳本或Go腳本+ Sentry。使用到的告警方式是企業(yè)微信或者企業(yè)郵箱。上圖三種顏色的線代表三種監(jiān)控方式需要注意。腳本主要是用來(lái)做備份告警、證書告警、抓賊等。Prometheus這里采用的是根據(jù)Prometheus-opertor修改的Prometheus資源清單,數(shù)據(jù)存儲(chǔ)在NAS上。Sentry嚴(yán)格的來(lái)講屬于日志收集類的平臺(tái),在這里我將其歸為監(jiān)控類,是因?yàn)槲铱粗辛似涫占瘧?yīng)用底層代碼的崩潰信息的能力,屬于業(yè)務(wù)邏輯監(jiān)控,旨在對(duì)業(yè)務(wù)系統(tǒng)運(yùn)行過程中產(chǎn)生的錯(cuò)誤日志進(jìn)行收集歸納和監(jiān)控告警。

注意這里使用的是聯(lián)邦監(jiān)控平臺(tái),而部署普通的監(jiān)控平臺(tái)。

聯(lián)邦監(jiān)控預(yù)警平臺(tái)邏輯圖

多集群聯(lián)邦監(jiān)控預(yù)警平臺(tái)邏輯圖如下:

因?yàn)槲宜居袔讉€(gè)Kubernetes集群,如果在每個(gè)集群上都部署一套監(jiān)控預(yù)警平臺(tái)的話,管理起來(lái)太過不便,所以這里我采取的策略是使用將各監(jiān)控預(yù)警平臺(tái)實(shí)行一個(gè)聯(lián)邦的策略,使用統(tǒng)一的可視化界面管理。這里我將實(shí)現(xiàn)三個(gè)級(jí)別餓監(jiān)控:操作系統(tǒng)級(jí)、應(yīng)用程序級(jí)、業(yè)務(wù)級(jí)。對(duì)于流量的監(jiān)控可以直接針對(duì)Kong進(jìn)行監(jiān)控,模版7424。

缺少日志系統(tǒng)

隨著業(yè)務(wù)全面Kubernetes化進(jìn)程的推進(jìn),對(duì)于日志系統(tǒng)的需求將更加渴望,Kubernetes的特性是服務(wù)的故障日志難以獲取。建立可觀測(cè)的能過濾的日志系統(tǒng)可以降低對(duì)故障的分析難度。

有關(guān)日志系統(tǒng)邏輯圖如下:

淺析:在業(yè)務(wù)全面上Kubernetes化后,方便了管理維護(hù),但對(duì)于日志的管理難度就適當(dāng)上升了。我們知道Pod的重啟是有多因素且不可控的,而每次Pod重啟都會(huì)重新記錄日志,即新Pod之前的日志是不可見的。當(dāng)然了有多種方法可以實(shí)現(xiàn)日志長(zhǎng)存:遠(yuǎn)端存儲(chǔ)日志、本機(jī)掛載日志等。出于對(duì)可視化、可分析等的考慮,選擇使用Elasticsearch構(gòu)建日志收集系統(tǒng)。

極度缺少有關(guān)操作文檔

建立以語(yǔ)雀--> 運(yùn)維相關(guān)資料為中心的文檔中心,將有關(guān)操作、問題、腳本等詳細(xì)記錄在案,以備隨時(shí)查看。

淺析因安全性原因,不便于過多同事查閱。運(yùn)維的工作比較特殊,安全化、文檔化是必須要保障的。我認(rèn)為不論是運(yùn)維還是運(yùn)維開發(fā),書寫文檔都是必須要掌握的,為己也好,為他也罷。文檔可以簡(jiǎn)寫,但必須要含苞核心的步驟。我還是認(rèn)為運(yùn)維的每一步操作都應(yīng)該記錄下來(lái)。

請(qǐng)求路線不明朗

根據(jù)集群重構(gòu)的新思路,重新梳理集群級(jí)流量請(qǐng)求路線,構(gòu)建具備:認(rèn)證、鑒權(quán)、代理、連接、保護(hù)、控制、觀察等一體的流量管理,有效控制故障爆炸范圍。

請(qǐng)求路線邏輯圖如下:

淺析:客戶經(jīng)過Kong網(wǎng)關(guān)鑒權(quán)后進(jìn)入特定名稱空間(通過名稱空間區(qū)分項(xiàng)目),因?yàn)榉?wù)已經(jīng)拆分為微服務(wù),服務(wù)間通信經(jīng)過Istio認(rèn)證、授權(quán),需要和數(shù)據(jù)庫(kù)交互的去找數(shù)據(jù)庫(kù),需要寫或者讀存儲(chǔ)的去找PV,需要轉(zhuǎn)換服務(wù)的去找轉(zhuǎn)換服務(wù)......然后返回響應(yīng)。

總結(jié)

綜上所述,構(gòu)建以:以Kubernetes為核心的CI/CD發(fā)版流程、以Prometheus為核心的聯(lián)邦監(jiān)控預(yù)警平臺(tái)、以Elasticsearch為核心的日志收集系統(tǒng)、以語(yǔ)雀為核心的文檔管理中心、以Kong及Istio為核心的南北東西流量一體化服務(wù),可以在高平發(fā),高可靠性上做到很好保障。

附總體架構(gòu)邏輯圖:

注:請(qǐng)根據(jù)箭頭和顏色來(lái)分析。

淺析:上圖看著似乎過于混亂,靜下心來(lái),根據(jù)上面的拆分模塊一層層分析還是可以看清晰的。這里我用不同顏色的連線代表不同模塊的系統(tǒng),根據(jù)箭頭走還是蠻清晰的。

根據(jù)我司目前的業(yè)務(wù)流量,上述功能模塊,理論上可以實(shí)現(xiàn)集群的維穩(wěn)。私認(rèn)為此套方案可以確保業(yè)務(wù)在Kubernetes集群上穩(wěn)定的運(yùn)行一段時(shí)間,再有問題就屬于代碼層面的問題了。這里沒有使用到中間件,倒是使用到了緩存Redis不過沒畫出來(lái)。我規(guī)劃在上圖搞定后再在日志系統(tǒng)哪里和轉(zhuǎn)換服務(wù)哪里增加個(gè)中間件Kafka或者RQ看情況吧。

 

責(zé)任編輯:張燕妮 來(lái)源: DockOne
相關(guān)推薦

2021-12-24 10:59:37

Kubernetes架構(gòu)代碼

2021-06-15 09:33:44

Kubernetes Prometheus 容器

2020-08-25 07:48:17

Kubernetes集群系統(tǒng)

2021-08-31 10:02:10

KubernetesLinux集群

2022-02-17 11:08:00

KubernetesMySQL運(yùn)維

2021-09-02 05:37:22

Containerd Kubernetes 容器

2021-03-10 09:52:38

開發(fā)技能架構(gòu)

2015-03-10 11:21:44

JavaScript組JavaScript

2020-10-08 14:29:57

Kubernetes容器開發(fā)

2019-11-07 14:00:36

MySQL數(shù)據(jù)庫(kù)SQL

2021-12-02 08:00:00

Kubernetes集群容器

2021-06-04 06:20:08

工具Kubernetes集群

2023-01-03 12:30:25

架構(gòu)CPUGPU

2017-07-10 14:18:34

微服務(wù)架構(gòu)可視化

2017-10-18 15:19:23

架構(gòu)師技術(shù)開發(fā)

2020-08-19 10:21:49

云計(jì)算Kubernetes技術(shù)

2023-01-06 08:59:07

模塊化基礎(chǔ)設(shè)施框架

2015-08-21 17:06:41

2020-07-27 18:52:34

Kubernetes集群工具

2022-04-17 10:04:32

HerokuPaaSPorter
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)