自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

光大銀行準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)架構(gòu)演進(jìn)

開發(fā) 架構(gòu)
初期平臺(tái)的定位是準(zhǔn)實(shí)時(shí)數(shù)據(jù)采集與流式計(jì)算,向外提供準(zhǔn)實(shí)時(shí)技術(shù)支持和按需開發(fā)的流式數(shù)據(jù)加工等服務(wù)。基于此,平臺(tái)分為三個(gè)模塊:數(shù)據(jù)采集、數(shù)據(jù)標(biāo)準(zhǔn)化和數(shù)據(jù)發(fā)布。

一、準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)

光大銀行數(shù)據(jù)資產(chǎn)部以提升服務(wù)和經(jīng)營效率為核心目標(biāo),負(fù)責(zé)光大銀行的數(shù)據(jù)管理和數(shù)字化轉(zhuǎn)型工作,提供關(guān)鍵性的底層技術(shù)支撐。在整個(gè)數(shù)字化轉(zhuǎn)型和業(yè)務(wù)升級(jí)過程中,數(shù)據(jù)資產(chǎn)部支撐業(yè)務(wù)關(guān)鍵資源、保障關(guān)鍵基礎(chǔ)設(shè)施運(yùn)行,在我行扮演著重要角色。

準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)則是光大銀行數(shù)據(jù)資產(chǎn)部-大數(shù)據(jù)平臺(tái)團(tuán)隊(duì)下的重要項(xiàng)目。

圖片

準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)始于2016年研發(fā),至今已有6-7年的演進(jìn),上圖是平臺(tái)的整體架構(gòu)圖,數(shù)據(jù)流向從左到右。

初期平臺(tái)的定位是準(zhǔn)實(shí)時(shí)數(shù)據(jù)采集與流式計(jì)算,向外提供準(zhǔn)實(shí)時(shí)技術(shù)支持和按需開發(fā)的流式數(shù)據(jù)加工等服務(wù)?;诖?,平臺(tái)分為三個(gè)模塊:數(shù)據(jù)采集、數(shù)據(jù)標(biāo)準(zhǔn)化和數(shù)據(jù)發(fā)布。

簡單來說,我們的數(shù)據(jù)采集接近于數(shù)據(jù)貼源層的邏輯,整個(gè)流程更像一個(gè)實(shí)時(shí)的數(shù)據(jù)倉庫。數(shù)據(jù)源通過兩種方式被傳送到我們的Kafka貼源層:

  • 第一種是傳統(tǒng)關(guān)系型數(shù)據(jù)庫的CDC數(shù)據(jù),這些數(shù)據(jù)會(huì)通過我們的OGG工具進(jìn)行同步并存儲(chǔ)于貼源層,另外,業(yè)務(wù)系統(tǒng)中的有異步導(dǎo)出需求且對(duì)延時(shí)敏感的數(shù)據(jù)通過Kafka API直接寫入到貼源層。這些數(shù)據(jù)大多不可被直接使用于下游業(yè)務(wù)應(yīng)用。因此在標(biāo)準(zhǔn)化模塊進(jìn)行公共邏輯處理,數(shù)據(jù)會(huì)被傳遞到SparkStreaming或Flink實(shí)時(shí)流式任務(wù),隨后被存儲(chǔ)于Kafka標(biāo)準(zhǔn)層。在標(biāo)準(zhǔn)層進(jìn)行的處理后,其中的一部分?jǐn)?shù)據(jù)可以被直接用于下游應(yīng)用的消費(fèi)。

  • 另一種數(shù)據(jù)則通過各種相對(duì)復(fù)雜的計(jì)算邏輯(flink/spark)或批處理技術(shù)寫入到我們最終的發(fā)布層。與前兩層處理不同,第三層著重處理業(yè)務(wù)邏輯并將最終的數(shù)據(jù)提供給下游系統(tǒng)進(jìn)行實(shí)時(shí)訂閱。

圖片

整個(gè)架構(gòu)經(jīng)過多年演進(jìn),展現(xiàn)出如下三個(gè)特點(diǎn):

  • 具有清晰的分層邏輯,并且基于實(shí)時(shí)數(shù)倉的設(shè)計(jì)邏輯;
  • 該架構(gòu)涵蓋廣泛的組件,包括明顯的業(yè)務(wù)邏輯處理,初衷是提供流式數(shù)據(jù)加工架構(gòu)相關(guān)的服務(wù);
  • 兼具準(zhǔn)時(shí)數(shù)據(jù)的存儲(chǔ)平臺(tái)和計(jì)算資源服務(wù)提供平臺(tái)。

隨著大數(shù)據(jù)領(lǐng)域多年的發(fā)展,組件分工也更加細(xì)化。組件細(xì)分為大數(shù)據(jù)架構(gòu)提供更高的可維護(hù)性、可擴(kuò)展性、安全性、穩(wěn)定性、性能、效率和易用性,使得整個(gè)架構(gòu)更加靈活和強(qiáng)大,能夠更好地滿足不斷增長的數(shù)據(jù)處理需求。

然而,反觀我們的系統(tǒng),存在兩個(gè)問題:

  • 首先,我們必須維護(hù)大量業(yè)務(wù)處理邏輯,隨著時(shí)間推移,這對(duì)我們平臺(tái)的資源分配和能力優(yōu)化帶來了巨大壓力;
  • 其次,我們維護(hù)了大量組件,從導(dǎo)入層到存儲(chǔ)層、計(jì)算層、上層調(diào)度層,使得該平臺(tái)的定位相對(duì)較模糊,需要更加明確和細(xì)化。

因此,我們需要加強(qiáng)對(duì)架構(gòu)的管理,以縮小各個(gè)組件之間的差異,同時(shí)優(yōu)化架構(gòu)的組織和協(xié)調(diào),使之更加適應(yīng)未來的需求。

二、架構(gòu)演進(jìn)實(shí)踐

圖片

針對(duì)上述問題,我們結(jié)合整個(gè)準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)的組件架構(gòu)特點(diǎn),將平臺(tái)拆分成了兩個(gè)子平臺(tái):

  • 實(shí)時(shí)數(shù)據(jù)湖平臺(tái)
  • 數(shù)據(jù)服務(wù)總線平臺(tái)

圖片

整個(gè)準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)維護(hù)的相關(guān)組件從左到右,包括數(shù)據(jù)接入和導(dǎo)出層、消息中間件層、數(shù)據(jù)計(jì)算層以及數(shù)據(jù)存儲(chǔ)層。最上層是調(diào)度層,分為資源調(diào)度和任務(wù)調(diào)度,資源調(diào)度也由我們完成。

這樣的拆分更好地解決平臺(tái)定位不清晰的問題,同時(shí)也提高了平臺(tái)組件之間的協(xié)作效率。

數(shù)據(jù)服務(wù)總線平臺(tái)拆分后以Kafka為中心的部分,該部分包括前端封裝的SDK和OGG,以及隨后引入的Schema Registry組件,致力于提供更完備的流式數(shù)據(jù)供給能力。

圖片

同時(shí),我們引入了Apache Hudi,并結(jié)合原有的流式計(jì)算組件生態(tài),構(gòu)建出實(shí)時(shí)數(shù)據(jù)湖平臺(tái),旨在實(shí)現(xiàn)實(shí)時(shí)數(shù)據(jù)的高效處理和存儲(chǔ)。該平臺(tái)致力于實(shí)時(shí)貼源數(shù)據(jù)存儲(chǔ),在數(shù)據(jù)的管理、查詢和可視化分析等方面提供優(yōu)化的解決方案。

1、實(shí)時(shí)數(shù)據(jù)湖

下圖是實(shí)時(shí)數(shù)據(jù)湖的數(shù)據(jù)處理鏈路,中間是綠色的部分是數(shù)據(jù)湖的存儲(chǔ)層,由Hudi和HDFS實(shí)現(xiàn)。

圖片

左邊是數(shù)據(jù)導(dǎo)入層,分為兩部分:

  • 一是我們存量的貼源數(shù)據(jù),基于Spark的批量任務(wù)從數(shù)據(jù)湖導(dǎo)入;

  • 二是實(shí)時(shí)貼源數(shù)據(jù),基于Flink實(shí)時(shí)流任務(wù),從數(shù)據(jù)服務(wù)總線貼源層導(dǎo)入。

這兩部分共同匯總在實(shí)時(shí)數(shù)據(jù)湖,實(shí)現(xiàn)了一個(gè)完整的實(shí)時(shí)貼源數(shù)據(jù)存儲(chǔ),對(duì)外提供分鐘級(jí)的一個(gè)貼源的數(shù)據(jù)的可見性。

右邊是數(shù)據(jù)導(dǎo)出層,分三種場景:

  • 一是基于 Spark/Hive的這種批處理的導(dǎo)出的能力,給下游的數(shù)倉和其他業(yè)務(wù)系統(tǒng)提供更穩(wěn)定、低時(shí)延的數(shù)據(jù)可用性;

  • 二是基于Flink去提供秒級(jí)的實(shí)時(shí)數(shù)據(jù)的消費(fèi)的能力;

  • 三是基于內(nèi)部的多源分析查詢平臺(tái)(Presto),提供實(shí)時(shí)數(shù)據(jù)的OLAP查詢能力。

實(shí)時(shí)數(shù)據(jù)湖提供的是分鐘級(jí)貼源數(shù)據(jù)存儲(chǔ),填補(bǔ)了數(shù)據(jù)湖天級(jí)延遲場景和數(shù)據(jù)服務(wù)總線秒級(jí)延遲場景之間的空白。實(shí)時(shí)數(shù)據(jù)湖不僅是一種存儲(chǔ)方式,更提供了快速響應(yīng)業(yè)務(wù)需求能力,實(shí)現(xiàn)了現(xiàn)代化的數(shù)據(jù)處理,推動(dòng)了企業(yè)數(shù)字化轉(zhuǎn)型進(jìn)程。

此外,對(duì)于光大內(nèi)部許多業(yè)務(wù)而言,對(duì)數(shù)據(jù)的實(shí)時(shí)性并不需要完全做到秒級(jí),分鐘級(jí)的延遲就已能夠滿足當(dāng)前六成的業(yè)務(wù)需求。

下圖是我們內(nèi)部一個(gè)核心的業(yè)務(wù)運(yùn)營系統(tǒng)的數(shù)據(jù)處理鏈路,在引入實(shí)時(shí)數(shù)據(jù)湖之前和之后的演進(jìn)路線:

圖片

未使用實(shí)時(shí)數(shù)據(jù)湖之前,數(shù)據(jù)來源于Kafka的ods層,通過Spark Streaming的流處理寫入Hbase,然后經(jīng)過Hive的Tez批處理,最終通過基于Hive on Hbase表提供給業(yè)務(wù)查詢。整條數(shù)據(jù)鏈路的延遲時(shí)間非常長,達(dá)到了小時(shí)級(jí)別,這種延時(shí)對(duì)運(yùn)營系統(tǒng)的性能影響非常大,明顯減緩了業(yè)務(wù)觸達(dá)的時(shí)效性。

演進(jìn)后是基于Hudi的改進(jìn)的數(shù)據(jù)處理鏈路,可以達(dá)到分鐘級(jí)的一個(gè)延遲。數(shù)據(jù)來源還是Kafka貼源層,會(huì)基于Flink的流處理,再去實(shí)時(shí)導(dǎo)入到Hudi,最終通過 Presto提供給業(yè)務(wù)實(shí)時(shí)貼源數(shù)據(jù)的交互查詢的能力。

整條鏈路經(jīng)過改造后,數(shù)據(jù)可見性延遲從小時(shí)級(jí)別下降到了分鐘級(jí)別,處理環(huán)節(jié)相對(duì)簡化,同時(shí)Hudi提供了更穩(wěn)定的數(shù)據(jù)來源。

2、數(shù)據(jù)服務(wù)總線

數(shù)據(jù)服務(wù)總線方面的實(shí)踐,主要涉及三個(gè)方面:

  • 基于Confluent開源的Schema Registry實(shí)現(xiàn)了schema解耦;
  • 對(duì)Kafka的原生API進(jìn)行了封裝,以便更好地對(duì)外提供服務(wù);
  • 提升了服務(wù)的可觀測性和可視化水平。

1)Schema的解耦

下圖是優(yōu)化前的數(shù)據(jù)流轉(zhuǎn)圖。

圖片

黑色實(shí)線表示數(shù)據(jù)流轉(zhuǎn)的方向,黑色虛線表示元數(shù)據(jù)流轉(zhuǎn)的方向。數(shù)據(jù)來源于Oracle數(shù)據(jù)庫,通過OGG進(jìn)行導(dǎo)入,以Avro的格式,通過Kafka做數(shù)據(jù)層的解耦,由下游基于Schema去做解析,下游解析數(shù)據(jù)的Schema來源于上游OGG接收到數(shù)據(jù)變更自動(dòng)生成(即圖中藍(lán)色的.avsc文件)。

所以,在上游表結(jié)構(gòu)發(fā)生變更時(shí),游必須同步去更新這個(gè)Schema文件才能完成數(shù)據(jù)的解析,這個(gè)Schema文件導(dǎo)致上下游系統(tǒng)在數(shù)據(jù)層是未完全解耦的狀態(tài);當(dāng)上游系統(tǒng)發(fā)生變更時(shí),下游系統(tǒng)需要先基于舊的Schema完成舊數(shù)據(jù)的消費(fèi),然后再把新的Schema同步過來,重啟服務(wù)使用新的Schema消費(fèi)新的數(shù)據(jù)。

總的來說,這個(gè)變更流程比較復(fù)雜,且下游對(duì)上游存在依賴,并且如果上游在投產(chǎn)的時(shí)候,沒有來得及通知下游,當(dāng)Schema變更以后,下游系統(tǒng)會(huì)使用舊的Schema去解析新的數(shù)據(jù),可能就會(huì)導(dǎo)致無法預(yù)知的程序宕機(jī),影響下游服務(wù)的穩(wěn)定運(yùn)行。

為解決這一問題,我們引入了Confluent的Schema Registry來實(shí)現(xiàn)Schema的解耦。

圖片

上圖展示了在引入了Schema Registry后的數(shù)據(jù)流轉(zhuǎn)圖。

數(shù)據(jù)的流向和之前一樣,主要區(qū)別是:在OGG側(cè)感知到源端的表結(jié)構(gòu)變更時(shí),會(huì)主動(dòng)去Schema Registry注冊(cè)新的Schema,同時(shí)將獲取到的Schema ID和數(shù)據(jù)一起寫入Kafka。下游消費(fèi)系統(tǒng)從消息中獲取新的Schema ID,也會(huì)去Schema Registry請(qǐng)求獲取對(duì)應(yīng)的Schema,并使用這個(gè)Schema去解析數(shù)據(jù)。

因此,當(dāng)Schema發(fā)生變化時(shí),下游的自動(dòng)獲取和更新,免去了非必要的重啟和未通知變更情況下的宕機(jī)問題。同時(shí),我們通過Schema Registry將Schema中心化存儲(chǔ)起來,方便后續(xù)進(jìn)一步的管理。同時(shí),引入Schema Registry以后,上游系統(tǒng)和下游系統(tǒng)都會(huì)對(duì)它有很強(qiáng)的依賴關(guān)系,這對(duì)Schema Registry服務(wù)本身的高可用提出了高要求。

①Schema Registry高可用實(shí)踐

圖片

上圖右側(cè)是Schema Registry單個(gè)實(shí)例的內(nèi)部實(shí)現(xiàn)原理。最上層是接口層,對(duì)外提供Restful形式的訪問接口,注冊(cè)請(qǐng)求(寫請(qǐng)求)過來后,會(huì)基于內(nèi)部的store層將數(shù)據(jù)以消息的形式寫入Kafka的topic中,也就是說Schema Registry底層的真實(shí)存儲(chǔ)實(shí)際上是一個(gè)Kafka的topic;而Store層會(huì)緩存所有的Schema,對(duì)于讀請(qǐng)求,會(huì)直接從內(nèi)存中獲取。

高可用實(shí)踐分為客戶端和服務(wù)端兩部分:

客戶端:高可用的一部分依賴于客戶端本身對(duì)Schema的緩存,在這種情況下,服務(wù)端如果暫時(shí)不可用,只會(huì)影響新增Schema的注冊(cè)和解析;同時(shí)為了讓服務(wù)端部署多個(gè)實(shí)例,以此避免單點(diǎn)問題導(dǎo)致的服務(wù)不可用問題,也要求客戶端配置多實(shí)例地址。因此,我們?cè)谧匝械腟DK里集成了自動(dòng)化配置這個(gè)功能。

服務(wù)端:除多實(shí)例部署以外,每個(gè)實(shí)例本身也做了獨(dú)立的部署,以此避免和其他服務(wù)混部造成影響;第二層是服務(wù)層自身的存儲(chǔ)緩存,在底層存儲(chǔ)出現(xiàn)問題時(shí),可以提供讀服務(wù)。

同時(shí),針對(duì)業(yè)務(wù)的需求,我們實(shí)現(xiàn)了集群跨域部署和容災(zāi)方案。

圖片

在我們內(nèi)部,存在跨域獲取數(shù)據(jù)的需求,自然就會(huì)產(chǎn)生跨域獲取Schema的需求。

上圖有兩個(gè)域,左邊是DC A,右邊是DC B。在A域里,生產(chǎn)者將相關(guān)數(shù)據(jù)寫入Kafka集群,將Schema注冊(cè)到Schema Registry服務(wù)。在消費(fèi)端,同時(shí)在A域和B域都會(huì)有對(duì)數(shù)據(jù)的消費(fèi)需求,數(shù)據(jù)的同步一般的方案就是Replicator或MM等工具完成,比如topic1同步到B域?qū)?yīng)A.topic1;在B域,拿到數(shù)據(jù)后,需要獲取Schema ID對(duì)應(yīng)的Schema才能去解析出數(shù)據(jù)。因此,我們需要跨域獲取Schema的解決方案。

上圖最下面藍(lán)框中的就是一個(gè)跨域的Schema Registry集群的實(shí)現(xiàn)。橙色是A域的Schema Registry實(shí)例,綠色是B域。整個(gè)集群會(huì)有一個(gè)主節(jié)點(diǎn),通過參數(shù)設(shè)置只能在A域產(chǎn)生。同時(shí),Schema Registry底層的存儲(chǔ)也使用A域的topic(即圖中的_schemas),這是為了保證數(shù)據(jù)沒有跨域?qū)懭?,并盡量避免因?yàn)榫W(wǎng)絡(luò)問題導(dǎo)致的數(shù)據(jù)重復(fù)或丟失問題。

對(duì)于寫請(qǐng)求,都會(huì)轉(zhuǎn)發(fā)給主節(jié)點(diǎn)實(shí)現(xiàn),這要求B域中的Schema Registry實(shí)例開通和A域中的Schema Registry實(shí)例之間的網(wǎng)絡(luò)關(guān)系;對(duì)于讀請(qǐng)求,節(jié)點(diǎn)要緩存Schema數(shù)據(jù),需要和底層的存儲(chǔ)通信,這要求B域中的Schema Registry實(shí)例開通和A域中的Kafka Broker節(jié)點(diǎn)之間的網(wǎng)絡(luò)關(guān)系,讀請(qǐng)求是增量獲取,跨域請(qǐng)求對(duì)網(wǎng)絡(luò)流量的影響也會(huì)比較小。

針對(duì)單個(gè)域的Kafka集群故障或機(jī)房故障,數(shù)據(jù)本身的備份可以通過同步工具完成,由于Schema Registry底層的存儲(chǔ)也是一個(gè)topic,它的數(shù)據(jù)也可以通過這種方式備份。在主節(jié)點(diǎn)集群出現(xiàn)問題時(shí),我們可以通過腳本去實(shí)現(xiàn)參數(shù)的一鍵切換,從而保證服務(wù)的可用性。

以上是整個(gè)Schema Registry的跨域?yàn)?zāi)備方案。

圖片

我們使用的Schema Registry是Confluent的開源版本,在光大銀行的系統(tǒng)整合過程中,進(jìn)行了一些改造,主要包括兩個(gè)方面:

  • 安全&權(quán)限:這是將開源系統(tǒng)集成到企業(yè)內(nèi)部所必需的改進(jìn)之一,所以Schema Registry的實(shí)現(xiàn)充分考慮到這點(diǎn),為使用者提供了標(biāo)準(zhǔn)的插件接口。我們基于這個(gè)接口實(shí)現(xiàn)了一個(gè)RBAC鑒權(quán)機(jī)制,確保服務(wù)的安全性,同時(shí)還增加了審計(jì)日志,以便進(jìn)行用戶請(qǐng)求的跟蹤。

  • 運(yùn)維:我們先將服務(wù)與Kerberos整合,再把服務(wù)的內(nèi)部指標(biāo)和行內(nèi)監(jiān)控系統(tǒng)進(jìn)行了打通。上圖是測試環(huán)境的示例,由于Schema Registry服務(wù)本身對(duì)高可用性要求較高,我們?cè)诒O(jiān)控和報(bào)警方面前期做了很多工作,未來也將不斷優(yōu)化。

2)SDK封裝

圖片

我們對(duì)Kafka客戶端所做的二次開發(fā)做了SDK封裝,提供統(tǒng)一的客戶端接口,解決了以下問題:

  • 減少不同客戶端版本帶來的性能差異和穩(wěn)定性問題;
  • 方便升級(jí)管理、災(zāi)備切換等;
  • 更好地規(guī)范客戶端行為,增強(qiáng)對(duì)客戶端的數(shù)據(jù)面控制。

在上圖右側(cè),我們展示了SDK已經(jīng)實(shí)現(xiàn)及計(jì)劃實(shí)現(xiàn)的特性,下面重點(diǎn)介紹下消費(fèi)定制化這一特性。

圖片

如圖所示,在消費(fèi)定制化的使用場景中,某個(gè)生產(chǎn)者寫入的某個(gè)數(shù)據(jù),在下游可能并不是關(guān)心的,以訂單數(shù)據(jù)為例,有些業(yè)務(wù)可能只關(guān)心訂單的流轉(zhuǎn)狀態(tài),有些業(yè)務(wù)只關(guān)心下單后的物流信息。因此,在大部分情況下,下游消費(fèi)數(shù)據(jù)只是上游寫入數(shù)據(jù)的一個(gè)子集,不同的消費(fèi)者子集也可能不同。

基于這些場景,我們實(shí)現(xiàn)了消費(fèi)定制化訂閱的特性,將業(yè)務(wù)真正關(guān)心的schema托管到我們自研的Schema Manager服務(wù)中,在SDK消費(fèi)時(shí),可以提供給下游業(yè)務(wù)真正關(guān)心的數(shù)據(jù),從而滿足不同消費(fèi)者的不同數(shù)據(jù)需求。

該特性的對(duì)外暴露由SDK封裝實(shí)現(xiàn),底層依賴于Schema Registry和Schema Manager,其中Schema Registry實(shí)現(xiàn)了用于中心化托管和對(duì)外服務(wù)的schema寫入,而Schema Manager實(shí)現(xiàn)了用戶自定義schema的中心化托管和對(duì)外服務(wù),在SDK側(cè),我們實(shí)現(xiàn)了和這兩個(gè)服務(wù)之間的交互,及自定義schema的獲取,并完成底層異常情況的處理以及消費(fèi)數(shù)據(jù)的抽取。

圖片

上圖展示了消費(fèi)定制化特性的處理流程,其核心實(shí)現(xiàn)有兩個(gè)方面:

一是實(shí)現(xiàn)了和Schema Manager之間交互及容錯(cuò)的能力,并且提供給客戶端調(diào)整能力,實(shí)現(xiàn)了一層緩存以提高效率。在未來,我們將考慮在客戶端中實(shí)現(xiàn)checkpoint機(jī)制,以提高可用性。

二是實(shí)現(xiàn)了基于讀schema解析時(shí)的兼容性,對(duì)于一些字段的偏差,我們可以自動(dòng)處理,并提供給業(yè)務(wù)一些常用匹配策略的配置。

3)可觀測性&可視化

最后介紹一些我們?cè)谟^測性和可視化方面做的事情。

圖片

首先,我們對(duì)Kafka進(jìn)行了全面的監(jiān)控。之前,我們發(fā)現(xiàn)基于Kafka的機(jī)制的產(chǎn)品端監(jiān)控粒度比較低,且缺失很多關(guān)鍵指標(biāo),如Kafka服務(wù)端網(wǎng)絡(luò)請(qǐng)求處理線程的繁忙率,業(yè)務(wù)側(cè)消費(fèi)延遲等。因此,我們結(jié)合Kafka本身的指標(biāo)以及我們內(nèi)部的云原生監(jiān)控體系,實(shí)現(xiàn)了更細(xì)粒度的監(jiān)控報(bào)警方案,以更好地掌握Kafka的狀態(tài)。

其次,我們還開發(fā)了服務(wù)控制臺(tái)。前面我們提到,通過Schema Registry我們可以將schema的中心化存儲(chǔ)。但是,這種數(shù)據(jù)并不是一種結(jié)構(gòu)化的存儲(chǔ),這就需要我們通過控制臺(tái)進(jìn)行可視化的管理。自定義的schema也通過控制臺(tái)去完成創(chuàng)建、更新和刪除的操作。下面的圖展示了一個(gè)租戶自定義schema列表的示例。

三、總結(jié)&未來規(guī)劃

1、總結(jié)

通過結(jié)合大數(shù)據(jù)領(lǐng)域新興技術(shù),我們對(duì)整個(gè)平臺(tái)進(jìn)行了拆分,解決了多項(xiàng)問題,當(dāng)前準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)實(shí)現(xiàn)了以下收益:

1)更清晰的平臺(tái)邊界;

2)覆蓋分鐘級(jí)實(shí)時(shí)貼源數(shù)據(jù)場景;

3)數(shù)據(jù)服務(wù)總線生態(tài)建設(shè);

4)提升了運(yùn)維和運(yùn)營能力。

2、未來規(guī)劃

圖片

1)實(shí)時(shí)數(shù)據(jù)湖

實(shí)時(shí)數(shù)據(jù)湖平臺(tái)目前處于持續(xù)落地階段,未來我們將持續(xù)遷移適用于分鐘級(jí)實(shí)時(shí)數(shù)據(jù)庫的全部貼源場景,同時(shí)探索基于行業(yè)經(jīng)驗(yàn)的湖倉一體和流批一體場景。

2)數(shù)據(jù)服務(wù)總線

  • 持續(xù)圍繞消息中間件生態(tài)進(jìn)行拓展,基于SDK實(shí)現(xiàn)客戶端的災(zāi)備切換功能,并結(jié)合服務(wù)端的災(zāi)備,共同實(shí)現(xiàn)平臺(tái)級(jí)別的災(zāi)備方案;

  • 由于總線的上下游接口的一個(gè)重要計(jì)算框架是Flink Connector,因此我們將基于它進(jìn)行二次開發(fā),實(shí)現(xiàn)部分核心功能,為接入的業(yè)務(wù)提供統(tǒng)一的體驗(yàn);

  • 除增強(qiáng)客戶端接入能力外,我們將積極開發(fā)管理控制臺(tái),將一些重要的Kafka運(yùn)維操作和服務(wù)部分運(yùn)營能力整合到我們的控制臺(tái)上,以提高整體的運(yùn)維和運(yùn)營效率;

  • 著手計(jì)劃長期的信創(chuàng)集群建設(shè)。

圖片

講師介紹

張旭,光大銀行準(zhǔn)實(shí)時(shí)數(shù)據(jù)平臺(tái)技術(shù)負(fù)責(zé)人,專注于分布式系統(tǒng)內(nèi)核研發(fā)。在OLAP & 消息中間件領(lǐng)域有較豐富經(jīng)驗(yàn)。開源愛好者,Apache RocketMQ committer,Prometheus contributor。

責(zé)任編輯:武曉燕 來源: dbaplus社群
相關(guān)推薦

2014-03-12 14:04:59

大數(shù)據(jù)

2018-01-09 20:07:09

光大銀行

2013-04-27 17:47:47

數(shù)據(jù)防泄密明朝萬達(dá)

2022-08-01 15:58:48

數(shù)據(jù)倉庫架構(gòu)數(shù)據(jù)

2016-02-15 10:45:32

華為

2023-03-16 07:20:15

大數(shù)據(jù)平臺(tái)云數(shù)據(jù)

2012-09-13 09:40:35

光大銀行IBM信用卡業(yè)務(wù)

2016-09-09 18:24:30

云計(jì)算

2017-02-17 10:57:01

華為

2012-06-07 14:04:50

2021-08-18 17:16:10

Git分片讀寫分離

2018-09-26 09:24:15

微博WAIC架構(gòu)

2019-11-21 09:49:29

架構(gòu)運(yùn)維技術(shù)

2019-12-12 10:22:16

大數(shù)據(jù)平臺(tái)大數(shù)據(jù)安全大數(shù)據(jù)

2020-05-29 17:10:15

數(shù)據(jù)架構(gòu)數(shù)據(jù)一切數(shù)據(jù)體系

2020-04-28 11:04:51

數(shù)據(jù)架構(gòu)互聯(lián)網(wǎng)Flink

2013-03-18 17:16:58

2019-04-23 09:13:54

蘇寧采購架構(gòu)

2020-06-09 13:57:29

IBMThink 2020

2011-12-02 10:29:47

IT整合管理服務(wù)光大銀行
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)