自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

揭秘字節(jié)跳動解決ClickHouse復(fù)雜查詢問題的技術(shù)實踐

開發(fā) 新聞
本次主要分享字節(jié)跳動如何解決ClickHouse復(fù)雜查詢問題,并詳細(xì)解讀技術(shù)實現(xiàn)細(xì)節(jié),目前該能力已經(jīng)通過火山引擎ByteHouse面向開發(fā)者輸出。

ClickHouse已經(jīng)成為行業(yè)主流且熱門的開源引擎。隨著業(yè)務(wù)數(shù)據(jù)量擴大,場景覆蓋變廣泛,在復(fù)雜query場景下,ClickHouse容易存在查詢異常問題,影響業(yè)務(wù)正常推進。

?全文將圍繞以下幾方面展開:

  • ?項目背景
  • 技術(shù)方案
  • 優(yōu)化與診斷
  • 效果及展望

01 項目背景

1. ClickHouse執(zhí)行模式

ClickHouse 的執(zhí)行模式相對比較簡單,和Druid、ES 類似,其基本查詢模式分為兩個階段:

圖片

第一階段,Coordinator 收到查詢后將請求發(fā)送給對應(yīng)的 worker 節(jié)點;

第二階段,Coordinator 收到各個 worker 節(jié)點的結(jié)果后匯聚起來處理后返回。

以下面的SQL為例:?

Select name from student_distribute where id = 5?

①當(dāng) Coordinator 收到請求后,由于student_distribute是一個分布式表,因此需要將SQL 改寫為對local表查詢,并轉(zhuǎn)發(fā)請求給每一個shard的worker;

②Worker收到請求后查詢本地的local表數(shù)據(jù),返回結(jié)果給coordinator;

③Coordinator匯總每一個shard的數(shù)據(jù)并把結(jié)果返回給client。

Select name from student_local where id = 5

第二階段執(zhí)行的模式能夠高效地支持很多常見場景,比如常見的針對大寬表的各類查詢,但是隨著業(yè)務(wù)場景的復(fù)雜化,也存在以下三點問題:

其一,第一階段返回的數(shù)據(jù)比較多且第二階段的計算比較復(fù)雜時,對于Coordinator的壓力會比較大,容易成為query的瓶頸,且shard越多可能計算越慢,瓶頸越大。例如一些重計算的agg算子count distinct。如果我們使用hash表去重時,第二階段需要在coordinator單機上merge各個worker的hash表,計算量很重且不能并行;又比如說group by基數(shù)比較大或者window計算。

其二,join是SQL的重要場景。由于不支持Shuffle操作,對于Join來說右表必須是全量數(shù)據(jù)。無論是普通Join還是Global Join,當(dāng)Join的右表比較大時都放到內(nèi)存里容易OOM,而Spill到磁盤雖然解決內(nèi)存問題,可能會因為有磁盤 io和序列化計算的開銷影響性能。特別是當(dāng)Join為最常見的Hash Join 時,右表如果是大表構(gòu)建也比較慢。雖然社區(qū)最近也做了一些右表構(gòu)建的優(yōu)化,通過單機按照 join key split 來達(dá)到并行構(gòu)建hash table。但是額外的代價是左右表都增加了一次 split 操作。

其三,對于復(fù)雜查詢(如多表 Join、嵌套多個子查詢、window function等)的支持并不友好,由于不能通過shuffle來分散數(shù)據(jù),生成的pipeline在一些case下不能充分并行,難以充分發(fā)揮集群的全部資源。

2. 其他MMP數(shù)據(jù)庫

目前主流的MPP數(shù)據(jù)庫基本都支持Stage執(zhí)行的方式。以Presto為例,如下圖所示,一個兩表join的agg sql可拆分為5個 Stage。

圖片

其中 Stage3、Stage4分別對應(yīng)左右表數(shù)據(jù)讀取,Stage2完成兩表Join和partial agg 計算,Stage1完成final agg計算,Stage0收集Stage1的數(shù)據(jù)后匯總和輸出。在這個過程中,Stage 3、4、2、1可以在多個節(jié)點上并行執(zhí)行,單個復(fù)雜的query被拆分成若干Stage,從而實現(xiàn)了Stage之間,不同worker的數(shù)據(jù)傳輸。

3. 業(yè)務(wù)背景和目標(biāo)

隨著業(yè)務(wù)復(fù)雜程度提高,業(yè)務(wù)并不希望所有的數(shù)據(jù)都通過etl 產(chǎn)生大寬表;復(fù)雜查詢(特別是多輪分布式 Join和比較多的agg)的需求越來越強烈,而整體的數(shù)據(jù)量又在不斷增長。在集群資源有限的情況下,我們希望能夠充分利用機器資源,基于ClickHouse 高效地支持復(fù)雜查詢。

ByteHouse是字節(jié)跳動研發(fā)同學(xué)基于開源ClickHouse 進行了深度優(yōu)化和改造的版本,提供海量數(shù)據(jù)上更強的查詢服務(wù)和數(shù)據(jù)寫入性能,支持多種應(yīng)用場景。如圖所示,ByteHouse在內(nèi)部多個場景如行為分析、畫像分析、智能營銷分析、APP 日志分析上得到充分的驗證和使用,并在多個方面進行了增強,具備特有的能力。

圖片

02 技術(shù)方案

1. 設(shè)計思想

基于 ClickHouse 的復(fù)雜查詢的實現(xiàn)采用分Stage的方式,替換目前 ClickHouse的兩階段執(zhí)行方式。類似其他分布式數(shù)據(jù)庫引擎(如 Presto、Impala 等),將一個復(fù)雜的Query按照數(shù)據(jù)交換情況切分成多個Stage,Stage和Stage之間通過 exchange完成數(shù)據(jù)的交換,單個Stage內(nèi)不存在數(shù)據(jù)交換。Stage間的數(shù)據(jù)交換主要有以下三種形式:

①按照單(多)個 key 進行 Shuffle(shuffle)

②由1個或者多個節(jié)點匯聚到一個節(jié)點(我們稱為 gather)

③同一份數(shù)據(jù)復(fù)制到多個節(jié)點(也稱為 broadcast 或者說廣播)?

按照不同的功能切分不同的模塊,設(shè)計目標(biāo)如下:

①各個模塊約定好接口,盡量減少彼此的依賴和耦合。一旦某個模塊有變動不會影響別的模塊,例如Stage生成邏輯的調(diào)整不影響調(diào)度的邏輯。

②模塊采用插件的架構(gòu),允許模塊根據(jù)配置靈活支持不同的策略。

2. 相關(guān)術(shù)語

  • ExchangeNode 在語法樹中表示數(shù)據(jù)交換的節(jié)點
  • PlanSegment 單個 Stage 對應(yīng)的執(zhí)行的計劃片段
  • ExchangeManager 管理數(shù)據(jù)的 exchange,負(fù)責(zé)不同 Stage 節(jié)點之間的數(shù)據(jù)交換
  • SegmentScheduler 計劃片段調(diào)度器,負(fù)責(zé)下發(fā)計劃片段給 worker,由 Coordinator 節(jié)點調(diào)用
  • InterpreterPlanSegment 計劃片段執(zhí)行器,執(zhí)行一個具體的計劃片段

圖片

3. 執(zhí)行流程

①Coordinator 接受復(fù)雜查詢后,在目前 ClickHouse 語法樹的基礎(chǔ)上,根據(jù)節(jié)點類型和數(shù)據(jù)分布情況插入 Exchange 節(jié)點并生成分布式 Plan。

②Coordinator 根據(jù) Exchange Node 類型,切分分布式 Plan 生成每個 Stage 的執(zhí)行片段 PlanSegment。

③Coordinator 調(diào)用 SegmentScheduler 將各階段的 PlanSegment 發(fā)送到 Worker 節(jié)點。

④Worker 節(jié)點接受 PlanSegment 通過 InterpreterPlanSegment 完成數(shù)據(jù)的讀取和執(zhí)行,通過 ExchangeManager 完成數(shù)據(jù)的交互。

⑤Coordinator 從最后一輪 Stage 對應(yīng)節(jié)點的 ExchangeManager 讀取數(shù)據(jù)后處理后返回給 client。

4. Plan切分

下面是一個Plan切分的例子,這是1個2表Join的查詢場景,根據(jù)Exchange信息,將整個分布式 Plan切分成4個Stage。

圖片

5. 查詢片段調(diào)度器(SegmentScheduler)

查詢片段調(diào)度器SegmentScheduler 根據(jù)上下游依賴關(guān)系和數(shù)據(jù)分布,以及 Stage 并行度和worker 分布和狀態(tài)信息,按照一定的調(diào)度策略,將 PlanSemgent 發(fā)給不同的 Worker 節(jié)點。

圖片

目前支持的2種策略是:?

①依賴調(diào)度:根據(jù) Stage 依賴關(guān)系定義拓?fù)浣Y(jié)構(gòu),產(chǎn)生 DAG 圖,根據(jù) DAG 圖調(diào)度 stage,類似于拓?fù)渑判颍鹊揭蕾嚨?Stage 啟動后再啟動新的 Stage。例如剛才的兩表 join,會先調(diào)度左右表讀取 stage,再調(diào)度 join stage。

②AllAtOnce:類似于Presto的AllAtOnce策略,會先計算每一個 Stage 的相關(guān)信息,一次性調(diào)度所有的Stage。

相比而言,這兩種策略是在容錯、資源使用和延時上做取舍。

第一種調(diào)度策略可以實現(xiàn)更好的容錯,由于 ClickHouse 可以有多個副本,當(dāng)前一個 Stage 部分節(jié)點連接失敗時可以嘗試切換到副本節(jié)點,對后續(xù)依賴 stage 無感知。這里指的是讀數(shù)據(jù)的 Stage,我們稱為 Source Stage,非 Source Stage 因為沒有數(shù)據(jù)依賴,容錯能力會更強,只要保證并行度的節(jié)點數(shù)即可,甚至極端情況下可以降低 stage 并行度來支持更好的容錯。缺點是調(diào)度有依賴,不能完全并行,會增加調(diào)度時長,對于一些數(shù)據(jù)量和計算量小,但是 stage 多的節(jié)點調(diào)度延時可能會占 SQL 整體時間不小的比例。我們也做了一些針對性的優(yōu)化,對于無依賴關(guān)系的盡可能支持并行。

第二種調(diào)度策略通過并行可以極大降低調(diào)度延時,為防止大量網(wǎng)絡(luò) io 線程,我們通過異步化并且控制線程數(shù)目;這種策略的缺點是容錯性沒有依賴調(diào)度好,因為每一個 stage 的 worker 在調(diào)度前就已經(jīng)確定,如果有一個 worker 出現(xiàn)連接異常則整個查詢會直接失敗。并且可能有一些 Stage 上游數(shù)據(jù)還沒有 Ready 就被調(diào)度執(zhí)行了,需要長時間等數(shù)據(jù)。例如 final agg stage,需要等 partial agg 完成后才能拿到數(shù)據(jù)。雖然我們做了一些優(yōu)化,并不會長時間空跑浪費 cpu 資源,但是畢竟也消耗了一部分資源,比如創(chuàng)建了執(zhí)行的線程。

6. 查詢片段執(zhí)行器(InterpreterPlanSegment)

下面介紹下計劃片段是如何執(zhí)行的,原本 ClickHouse的查詢和節(jié)點執(zhí)行主要是 SQL 形式,切分Stag后需要支持執(zhí)行一個單獨的PlanSemgent。因此 InterpreterPlanSegment 的主要功能就是接受一個序列化后的 PlanSemgent,能夠在 Worker 節(jié)點上運行整個 PlanSemgent 的邏輯。主要的步驟為:

①根據(jù) input 信息讀取數(shù)據(jù),如果 input 是具體的 table,則從本地讀取數(shù)據(jù);如果 input 是一個 exchange input,則從對應(yīng)的 ExchangeManager 讀取數(shù)據(jù);

②執(zhí)行 PlanSemgent 的邏輯;

③輸出處理后的結(jié)果數(shù)據(jù),如果是 Coordinator 節(jié)點,就將數(shù)據(jù)發(fā)給 Client;如果是非Coordinator 節(jié)點,就按照數(shù)據(jù)的exchange方式寫給本實例對應(yīng)的 ExchangeManager。

Interpreter部分我們盡量復(fù)用當(dāng)前ClickHouse的執(zhí)行邏輯,例如processor 執(zhí)行方式,process list管理等等。相比于InterpreterSelect邏輯要更簡單一些,可以認(rèn)為1 個Stage只有1個階段。當(dāng)然我們也做了很多功能和性能的增強,例如我們支持1個 stage處理多個join等,這樣可以減少stage數(shù)目和不必要的數(shù)據(jù)傳輸,在一張大表(通常情況下是事實表) join 多個維度表的場景有比較好的幫助。

InterpreterPlan Segment執(zhí)行完會向coordinator上報對應(yīng)的狀態(tài)信息。執(zhí)行異常的時候會將異常信息報告給查詢片段調(diào)度器,取消Query其他worker的執(zhí)行。

7. 數(shù)據(jù)交換(ExchangeManager)

圖片

ExchangeManager是PlanSegment數(shù)據(jù)交換的媒介,更是平衡數(shù)據(jù)上下游處理能力的重要組件。整體上采用 push 的方式,當(dāng)上游數(shù)據(jù) ready 時主動推送給下游,并支持反壓。其架構(gòu)如下圖所示:

圖片

具體的流程如下:?

下游PlanSegment執(zhí)行時,當(dāng)input為exchange input時,根據(jù)一定的 token 規(guī)則 (通常由 query_id+segment_id+index_id 等組成)和數(shù)據(jù) source 信息,向上游 ExchangeManager 注冊對應(yīng)的數(shù)據(jù)請求;

上游ExchangeManager收到請求后,建立上下游數(shù)據(jù)通道,并將上游的數(shù)據(jù)推送到下游,如果通道一直建立不了會 block 上游的執(zhí)行。

在這個過程中,上下游都會通過隊列來優(yōu)化發(fā)送和讀取,當(dāng)隊列飽和的時候通過反壓的機制控制上游的執(zhí)行速度。由于采用了 push 和隊列,這里我們要考慮一個特殊的場景,在某些 case 下下游的 Stage 并不需要讀取全部的上游數(shù)據(jù),一個典型的場景是 limit。例如 limit 100,下游 stage 是需要讀取 100 條數(shù)據(jù)即可,而上游可能會輸出更大規(guī)模的數(shù)據(jù),因此在這種情況下,當(dāng)下游 stage 讀到足夠的數(shù)據(jù)后,需要能主動取消上游數(shù)據(jù)的執(zhí)行并清空隊列。這是一個特定場景的優(yōu)化,能夠大大加速查詢時間。

ExchangeManager 需要考慮和優(yōu)化的點還有:?

①細(xì)粒度的內(nèi)存控制,能夠按照實例、query、segment 多層次進行內(nèi)存控制,避免 OOM,更長期的考慮是支持 spill 到磁盤上,降低對內(nèi)存的使用。為了提升傳輸效率,小數(shù)據(jù)需要進行 merge,大數(shù)據(jù)要 split。同時,網(wǎng)絡(luò)處理在某些場景要保證有序性,比如 sort 時,partial sort 和 merge sort 的網(wǎng)絡(luò)傳輸必須有序,否則數(shù)據(jù)可能是有問題的。

②連接復(fù)用和網(wǎng)絡(luò)優(yōu)化,包括針對上下游在同一個節(jié)的場景下選擇走內(nèi)存的交換不走網(wǎng)絡(luò),可以減少網(wǎng)絡(luò)的開銷和減少數(shù)據(jù)序列化、反序列化的代價。另外,由于 ClickHouse 在計算方面做了非常充足的優(yōu)化,有些場景下甚至內(nèi)存帶寬成為瓶頸,我們在ExchangeManager的一些場景上也應(yīng)用zero copy等技術(shù)來減少內(nèi)存的拷貝。

③異常處理和監(jiān)控,相比于單機執(zhí)行,分布式情況下異常情況更復(fù)雜且不好感知。通過重試能避免一些節(jié)點的暫時高負(fù)載或者異常,以及出問題時能夠快速感知、排查和做針對性解決和優(yōu)化。這里的工程實踐更多一些。

03 優(yōu)化與診斷

1. Join 多種實現(xiàn)

根據(jù)數(shù)據(jù)的規(guī)模和分布,我們支持了多種Join實現(xiàn),目前已經(jīng)支持的有:

①Shuffle Join,最通用的 Join;

②Broadcast Join,針對大表Join小表的場景,通過把右表廣播到左表的所有 worker 節(jié)點來減少左表的傳輸;

③Colocate Join,針對左右表根據(jù)Join key保持相通分布的場景,減少左右表數(shù)據(jù)傳輸。

2. 網(wǎng)絡(luò)連接優(yōu)化

網(wǎng)絡(luò)連接的優(yōu)化的核心本質(zhì)就是減少連接的使用。特別是數(shù)據(jù)需要Shuffle 的時候,下一輪 Stage的每一個節(jié)點需要從上一輪Stage的每一個節(jié)點拉取數(shù)據(jù)。當(dāng)一個集群的節(jié)點比較多的時候,如果存在比較多的復(fù)雜 Query(Stage多,并行度(節(jié)點數(shù))比較大),集群的Worker節(jié)點會建立非常多的連接,如下圖所示,單節(jié)點建立的連接數(shù)與集群節(jié)點數(shù)、并發(fā)stage數(shù)成正比。

圖片

字節(jié)內(nèi)部的clickhouse集群規(guī)模非常大,最大的集群(單集群幾千臺規(guī)模)在目前 ClickHouse 的執(zhí)行模式下單機最大可能會建立上幾萬個網(wǎng)絡(luò)連接。因此如果支持復(fù)雜 Query 執(zhí)行,由于stage變多了,需要優(yōu)化網(wǎng)絡(luò)連接,特別是支持連接復(fù)用。我們通過盡可能復(fù)用連接,在不同節(jié)點之間只會建立固定數(shù)目的連接,不同的查詢會復(fù)用這些連接,不隨 query 和 stage 的規(guī)模而增長。

3. 網(wǎng)絡(luò)傳輸優(yōu)化

在數(shù)據(jù)中心領(lǐng)域,遠(yuǎn)程直接內(nèi)存訪問(RDMA)是一種繞過遠(yuǎn)程主機操作系統(tǒng)內(nèi)核訪問其內(nèi)存中數(shù)據(jù)的技術(shù),由于不經(jīng)過操作系統(tǒng),不僅節(jié)省了大量CPU資源,同樣也提高了系統(tǒng)吞吐量、降低了系統(tǒng)的網(wǎng)絡(luò)通信延遲,尤其適合在大規(guī)模并行計算機集群中有廣泛應(yīng)用。

由于ClickHouse在計算層面做了很多優(yōu)化,而網(wǎng)絡(luò)帶寬相比于內(nèi)存帶寬要小不少,在一些數(shù)據(jù)量傳輸特別大的場景,網(wǎng)絡(luò)傳輸會成為一定的瓶頸。為了提升網(wǎng)絡(luò)傳輸?shù)男屎吞嵘龜?shù)據(jù)exchange的吞吐,一方面我們引入壓縮來降低傳輸數(shù)據(jù)量,另一方面我們引入 RDMA 來減少一定的開銷。經(jīng)過測試,在一些數(shù)據(jù)傳輸量大的場景,有不小的收益。

4. Runtime Filter

Join算子通常是OLAP引擎中最耗時的算子。如果想優(yōu)化 Join 算子,可以有兩種思路,一方面可以提升Join算子的性能,例如更好的Hash Table實現(xiàn)和Hash算法,以及更好的并行。另一方面可以盡可能減少參與Join計算的數(shù)據(jù)。

Runtime Filter在一些場景,特別是事實表join維度表的星型模型場景下會有比較大的效果。因為這種情況下通常事實表的規(guī)模比較大,而大部分過濾條件都在維度表上,事實表可能要全量join維度表。Runtime Filter的作用是通過在 Join 的 probe 端(就是左表)提前過濾掉那些不會命中Join的輸入數(shù)據(jù)來大幅減少 Join 中的數(shù)據(jù)傳輸和計算,從而減少整體的執(zhí)行時間。以下圖為例:

圖片

左表并沒有直接過濾條件,右表帶有過濾條件item.proce > 1000。當(dāng)完成右表查詢時,可以確定item.id 的范圍和集合,根據(jù)join類型inner join和join條件sales.item_id=item.id可以推斷出sales.item的范圍和集合。我們可以把sales.item 的范圍和集合作為一個過濾條件,在join前過濾sales的數(shù)據(jù)。

我們在復(fù)雜查詢上支持了Runtime Filter,目前主要支持minmax和bloomfilter。

總體執(zhí)行流程如下:

①build plan segment worker(right table)會將生成的單節(jié)點 runtime filter 發(fā)送到coordinator節(jié)點;

②coordinator 在等待各個 worker的 runtime filter 都發(fā)送完成之后進行一次merge操作,將合并好的 runtime filter 分發(fā)到各個 execute plan segment worker(left table)節(jié)點中去;

③在 runtime filter 構(gòu)造期間,execute plan segment(left table) 需要等待一定的時間,在超時之前如果runtime filter已經(jīng)下發(fā),則通過 runtime filter 執(zhí)行過濾。

這里需要思考一個問題,Runtime filter column 是否構(gòu)建索引(主鍵、skip index等)和命中prewhere?如果runtime filter的列(join column)構(gòu)建了索引是需要重新生成 pipeline 的。因為命中索引后,可能會減少數(shù)據(jù)的讀取,pipeline并行度和對應(yīng)數(shù)據(jù)的處理range都可能發(fā)生變化。如果runtime filter的列跟索引無關(guān),可以在計劃生成的時候預(yù)先帶上過濾條件,只不過一開始作為占位是空的,runtime filter下發(fā)的時候把占位信息改成真正的過濾條件即可。這樣即使runtime filter 下發(fā)超時了,查詢片段已經(jīng)開始執(zhí)行了,只要查詢片段沒有執(zhí)行完,之后的數(shù)據(jù)仍然可以進行過濾。

需要注意的是,runtime filter 是一種特殊場景下的優(yōu)化,其針對的場景是右表數(shù)據(jù)量不大,且構(gòu)建的 runtime filter 對左表有比較強的過濾效果。如果右表數(shù)據(jù)量比較大,構(gòu)建runtime filter比較慢,或者對左表的數(shù)據(jù)過濾效果很差甚至沒有,那么 runtime filter 反而會增加查詢的耗時。因此,要根據(jù)數(shù)據(jù)的特征和規(guī)模來決定是否開啟。

5. 診斷和分析

引入復(fù)雜查詢的多Stage 執(zhí)行模型后,SQL的執(zhí)行模式變得復(fù)雜了。特別是當(dāng)用戶查詢一些非常復(fù)雜的查詢,幾百行的sql生成的stage會非常多,把stage都看一遍并理解sql的含義要花比較長的時間。題外話:我們很早之前就完整的跑通了所有的tpcds query,這里面就有一些sql可能會產(chǎn)生幾十個 stage。那么在這種情況下,如何定位 SQL 的瓶頸并加以優(yōu)化是一個難題。

我們做了如下兩點優(yōu)化:?

首先,最常見的做法是增加各類完善的metrics,包括整個Query的執(zhí)行時間和不同Stage的執(zhí)行時間、IO數(shù)據(jù)量、算子處理數(shù)據(jù)和執(zhí)行情況、算子 metrics 和profile event等。

其次,我們記錄了反壓信息和上下游隊列長度,以此來推斷 stage 執(zhí)行情況和瓶頸。

坦率地說,SQL 場景包括萬象,很多非常復(fù)雜的場景目前還是需要對引擎比較熟悉的同學(xué)才能診斷和分析SQL才能給出優(yōu)化建議。在不斷積累經(jīng)驗的過程中,我們希望通過能夠不斷完善 metrics 和分析路徑,不斷減輕oncall的負(fù)擔(dān),并且在某些場景下可以更智能的給出優(yōu)化提示,這對于使用同學(xué)來說也是有好處的。

04 效果及展望

1. 復(fù)雜查詢效果

根據(jù)上面的執(zhí)行模型的三個缺點,分別測試如下三個場景:

①第二階段的計算比較復(fù)雜

②Hash Join 右表為大表

③多表 Join

以SSB 1T數(shù)據(jù)作為數(shù)據(jù)集,集群包含8個節(jié)點。

2. 第二階段的計算比較復(fù)雜

這個case SQL 如下圖所示

圖片

?

uniqExact是count distinct的默認(rèn)算法,采用hash table進行數(shù)據(jù)去重。使用復(fù)雜查詢后,query 執(zhí)行時間從 8.514s=>2.198s,第二階段 agg uniqExact 算子的合并原本由 coordinator單點合并,現(xiàn)在通過按照group by key shuffle 后可以由多個節(jié)點并行完成。因此通過shuffle減輕了coordinator的merge agg 壓力。

3. Hash Join 右表為大表

這個 case 演示了右表是一個大表的場景,由于 ClickHouse 對多表的優(yōu)化做的還不是很到位。這里采用子查詢來下推過濾的條件。

圖片

在這個case中,采用復(fù)雜查詢模式后,query 執(zhí)行時間從17.210=>1.749s。lineorder 是一張大表,通過shuffle可以將大表數(shù)據(jù)按照join key shuffle到每個worker節(jié)點,減少了右表構(gòu)建的壓力。

4. 多表 Join

這個 case 是一個 5 表 join 的 case。

圖片?

開啟復(fù)雜查詢模式后,query 執(zhí)行時間從8.583s=>4.464s,所有的右表可同時開始數(shù)據(jù)讀取和構(gòu)建。為了和現(xiàn)有模式對比,針對復(fù)雜查詢沒有開啟 runtime filter,開啟 runtime filter后效果會更快。

這里還要重點說一下,今天的分享主要是從執(zhí)行模式上講解如何支持復(fù)雜查詢。實際上,優(yōu)化器對于復(fù)雜查詢的性能提升也非常大。通過一些rbo的規(guī)則,比如常見的謂詞下推、相關(guān)子查詢處理等。實際上這里的優(yōu)化規(guī)則非常多,可以極大的提升 SQL 的執(zhí)行效率。上面的 SQL 其實原本比較簡單,5 表 join 和一些維表的過濾條件,這里寫成子查詢是為了在 ClickHouse 現(xiàn)有模式下右表過濾條件更好下推。其實對于我們來說,在復(fù)雜查詢的模式下,由于有優(yōu)化器的存在,用戶不用寫的這么復(fù)雜,優(yōu)化器會自動完成下推和rbo優(yōu)化。

上面是一些規(guī)則的優(yōu)化,實際上在復(fù)雜查詢中, cbo 的優(yōu)化也有很大作用。舉一個例子,在 ClickHouse 中,相同的兩個表,大表 join 小表的性能比小表 join 大表要好很多。前一個效果 2 中如果把表順序調(diào)整一下會快很多;另外,選用哪一種 join 的實現(xiàn)對 join 性能影響比較大,如果滿足 join key 分布,colcate join 比 shuffle join 來說完全減少了數(shù)據(jù)的 shuffle。多表 join 中,join 的順序和 join 的實現(xiàn)方式對執(zhí)行的時長影響會比 2 表 join 影響更大。借助數(shù)據(jù)的統(tǒng)計信息,通過一些 cbo 優(yōu)化,可以得到一個比較優(yōu)的執(zhí)行模式。

有了優(yōu)化器,業(yè)務(wù)同學(xué)可以按照業(yè)務(wù)邏輯來寫任何的 SQL,引擎自動計算出相對最優(yōu)的 SQL 計劃并執(zhí)行,加速查詢的執(zhí)行。

5. 展望

CLickHouse 目前的模式其實在很多單表查詢的場景上表現(xiàn)優(yōu)異。我們主要是針對復(fù)雜的查詢場景做優(yōu)化,主要是實現(xiàn)多stage的執(zhí)行模式,并實現(xiàn)了stage之間數(shù)據(jù)傳輸。工程實踐上來說,做了比較多的嘗試和優(yōu)化來提升執(zhí)行和網(wǎng)絡(luò)傳輸?shù)男阅?,并且希望通過完善metrics和智能診斷來降低SQL分析和調(diào)優(yōu)的門檻,并減少oncall 的壓力。

目前的實現(xiàn)只是第一步,未來我們還有很多努力的方向。

首先,肯定是繼續(xù)提升執(zhí)行和 Exchange 的性能。這里不談?wù)撘鎴?zhí)行通用的優(yōu)化,比如更好的索引或者算子的優(yōu)化,主要是跟復(fù)雜查詢模式有關(guān)。

其次是Metrics 和智能診斷加強,就如同剛才提到的,SQL 的靈活度太高了,對于一些復(fù)雜的查詢沒有 metrics 幾乎難以診斷和調(diào)優(yōu),這個我們會長期持續(xù)的去做。

責(zé)任編輯:張燕妮 來源: DataFunTalk
相關(guān)推薦

2022-06-24 15:18:48

字節(jié)跳動數(shù)據(jù)庫ClickHouse

2022-06-02 12:00:55

ClickHouse大數(shù)據(jù)字節(jié)跳動

2022-07-12 16:54:54

字節(jié)跳動Flink狀態(tài)查詢

2024-09-25 15:57:56

2022-08-21 21:28:32

數(shù)據(jù)庫實踐

2025-02-05 09:10:00

2024-04-23 10:16:29

云原生

2023-01-10 09:08:53

埋點數(shù)據(jù)數(shù)據(jù)處理

2025-04-07 07:20:35

SQL慢查詢性能

2022-05-23 13:30:48

數(shù)據(jù)胡實踐

2024-11-01 17:00:03

2022-06-08 13:25:51

數(shù)據(jù)

2022-12-23 08:58:35

字節(jié)跳動YARN架構(gòu)

2011-05-18 10:24:55

Oracle

2024-08-22 14:53:24

PromptAI大模型

2022-07-18 16:02:10

數(shù)據(jù)庫實踐

2022-10-14 14:47:11

Spark字節(jié)跳動優(yōu)化

2022-07-18 17:37:27

字節(jié)跳動人工智能AI模型

2022-06-22 06:49:39

Hertz開源HTTP 框架

2022-04-07 16:35:59

PGO 優(yōu)化profile 數(shù)據(jù)編譯優(yōu)化
點贊
收藏

51CTO技術(shù)棧公眾號