自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

廣告倒排服務極致優(yōu)化

開發(fā) 后端
漏斗優(yōu)化是檢索系統(tǒng)不變的話題,過去一年來,廣告漏斗優(yōu)化一改往日做“加法”,而通過簡化漏斗,提升全系統(tǒng)一致性。如百度這樣龐大的廣告庫規(guī)模、高流量規(guī)模以及復雜的業(yè)務規(guī)則,要做到極簡的漏斗層次,需要最高效的策略設計和最極致的工程實現(xiàn)。

1、業(yè)務背景 - 全系統(tǒng)Limitless

大家都清楚,廣告漏斗包括召回、粗排、精排這三部分,理想中的漏斗上寬下窄很規(guī)整,而現(xiàn)實中因為種種原因,漏斗已經(jīng)略顯飄逸了,這種不一致性會帶來很多業(yè)務繼續(xù)發(fā)展的復雜度。我們希望達到:模型一致,精簡漏斗,全系統(tǒng)Limitless。

圖片

我們對Limitless的認識:細節(jié)處見真章,挑戰(zhàn)軟件工程性能極限,方能漏斗近似無截斷。

今天想跟大家聊聊『BS Limitless』項目里我們怎么摳細節(jié)的,整個項目其實挑戰(zhàn)很大,網(wǎng)絡、計算和存儲方方面面都涉及到,一篇短文很難講透,因此我決定選一個數(shù)據(jù)結構-倒排表,讓大家感受到『極致』優(yōu)化。

2、技術背景 - 倒排表

先介紹一下優(yōu)化前的倒排表,它的組成比較經(jīng)典特點,HashMap<keysign, SkipList>。一次檢索pv根據(jù)觸發(fā)的N個詞(keysign)掃描拉鏈(SkipList),廣告業(yè)務投放特點天然會有長鏈、超長鏈,為此鏈表需要有序,做過漏斗的同學知道,在倒排階段排序能用的信息其實是很少的,這也說明了掃描Limitless對業(yè)務的高價值。

圖片

這樣一個小小的數(shù)據(jù)結構承擔了各方的要求,1、讀性能決定有限時間能放出多少量,2、實時插入決定客戶投放能不能立即生效,3、單庫規(guī)模巨大,內(nèi)存損耗要低。對工程的合理要求,確實是既要...又要...還要...。在Limitless的大背景下,我們要顯著提升1達到scan limitless,但是不能損害到2和3。

回過頭來看,這么簡單的數(shù)據(jù)結構,Limitless的瓶頸到底是什么?大家回憶一下計算機體系結構的內(nèi)容。cpu并不直接訪存,而通過層層緩存到達內(nèi)存,存儲層次越低,它的容量越大但延遲越高,mem和L2、L1之間有量級差距[1]。List這種數(shù)據(jù)結構顯然缺乏空間局部性。

圖片

緩存不親和的List對比緩存友好的Array,在掃描上究竟有多差呢?我們做了如下的評測,其中橫軸代表鏈長或數(shù)組長度,縱軸是平均到單條元素的掃描耗時,結果是10+差距。換成數(shù)組Array,也是不行的,客戶要求實時生效,為了低效拷貝損耗需要O(2N)的增長速度,內(nèi)存成本要求也不能滿足。

圖片

3、方案 - HybridIndexTable

我們針對業(yè)務的特點和Limitless的要求進行極致設計和優(yōu)化,推出了新一代的內(nèi)存數(shù)據(jù)結構HybridIndexTable,簡稱HIT。升級后的倒排表:

  • 用HashMap索引keysign,
  • 短鏈采用連續(xù)存儲,長鏈則是一棵葉子連續(xù)存儲的前綴樹,前綴樹則參考了業(yè)界AdaptiveRadixTree,簡稱ART,
  • 短鏈和葉子的)連續(xù)存儲都采用了自研的RowContainer,簡稱RC。?

在簡短的數(shù)據(jù)結構之外,還要和大家分享兩個關鍵細節(jié):

  • Key序路由兜底超長鏈有序,
  • RC間無序,以RC為單位掃描。

HIT這樣的數(shù)據(jù)結構有如下三點優(yōu)勢,恰到好處地滿足了前面的三個要求。

讀取性能高,連續(xù)存儲+前綴樹降低cachemiss,線程安全做法reader-friendly,還有面向負載的優(yōu)化;

更新時效性高,連續(xù)存儲但append-only/mark-delete;

內(nèi)存損耗少,應用了大量的自適應算法。

HIT上線后拿到了非??捎^的業(yè)務收益,Limitless的道路上 技術就是生產(chǎn)力!

圖片

4、HIT緣起,內(nèi)存索引ModernCPU的探索

內(nèi)存索引領域已在面向Modern Cpu深耕,ModernCpu由于Cpu運行得很快,使得緩存一致性的影響、訪存的影響成為高性能的瓶頸。內(nèi)存索引在2000s也有些階段性的標志成果,包括FAST[4],它是面向體系結構的數(shù)據(jù)結構設計的典型,無論是思想還是成果非常適用于靜態(tài)數(shù)據(jù);CSBtree[2][3],它提出數(shù)據(jù)結構上通過KV分離,使得一次訪存能比較多個Key,同時還提出了SMO的無鎖解法;還有ART前綴樹[5]。有序索引中BTree居多,我們?yōu)楹巫⒁獾搅饲熬Y樹呢?

鏈表類型的緩存失效發(fā)生在每次訪問下一個節(jié)點,緩存失效復雜度O(n)。排序樹類型的緩存失效發(fā)生在訪問下一層節(jié)點,緩存失效復雜度O(lgn)。而對于前綴樹來說,緩存失效只和 鍵長k(len)/扇出s(pan) 有關,緩存失效復雜度O(k/s)。如下圖[5],假設k是鍵長的bit數(shù),隨著存儲數(shù)據(jù)量上漲2^(k/8)、2^(k/4)、...,完全平衡樹高不斷增加,分別是k/8、k/4、...,而對于一顆前綴樹,樹高對于給定的span是恒定的,如針對span=8和4,樹高分別是k/8、k/4。前綴樹更加緩存友好。

圖片

這里簡單介紹下前綴樹,英文是Trie、Prefix tree或Digit tree,左圖是維基百科的實例,這是個典型的沒有任何優(yōu)化的前綴樹,一方面,只有單分叉的情況下也多分出一級,比如inn;另一方面,由于在分支節(jié)點需要分配 2 ^ s * pointer 的內(nèi)存,對于實際扇出極少的場景,內(nèi)存損耗非常大。

RadixTree是一種通過合并前綴(PathCompression)優(yōu)化內(nèi)存的前綴樹。合并前綴是指壓縮掉僅有一個孩子的分支節(jié)點,這樣存在的節(jié)點或者是葉子節(jié)點,或者是有分叉的分支節(jié)點。名字中的radix=2^span,它在radix=2的情況下,也叫做Patricia tree[6]。Linux PageCache頁面緩存用的是RadixTree,以太坊幣ETH的核心數(shù)據(jù)結構是Merkle Patricia tree。中間圖是按照RadixTree重新組織的。

即便有合并前綴,由于大部分扇出是填不滿,浪費了空間。比如上面例子的RadixTree(radix = 256, s=8),那么即便在第一級只有t、A、i,也需要多分配 253 * 8 ~ 1Kbytes。調(diào)整radix(span = lg(radix))是一種內(nèi)存優(yōu)化方式,但這提高了樹高增加了緩存失效[5]。2013年,A(daptive)R(adix)T(ree)[6]用自適應的節(jié)點類型來解決問題,用適合數(shù)據(jù)分布的最緊湊的節(jié)點表示,而不是固定的Node256。論文中 InnerNode 分為 Node4、Node16、Node80和Node256這四種,按照實際需要的分叉數(shù)選擇,通過類分攤算法(Amortization Alg)復雜度分析方法,可證明理論上這棵樹內(nèi)存復雜度是O(52N),其中N是存儲數(shù)據(jù)量。ART論文提供了一種方式,在提高扇出降低樹高的同時,還能大幅度降低內(nèi)存開銷。按照ART重新組織上面例子中的RadixTree,如圖所示。

圖片

5、HIT優(yōu)化,RC實現(xiàn)ShortList+LongList Leaf的自適應

我們定義 RC_x 為不超過x個元素的連續(xù)存儲空間,支持Append-Only和Mark-Delete操作,單元素額外成本不超過8byte。接下來看RC的設計要點。

既然RC被設計為只支持Append-Only/Mark-Delete修改的數(shù)據(jù)類型,為此元數(shù)據(jù)需有cursor和valids。同時針對不同容量的RC,為了控制理論上單條數(shù)據(jù)損耗不超過8byte,需要分別設計和實現(xiàn),我們不希望引入繼承virtual指針的內(nèi)存開銷,采用根據(jù)type分發(fā)的實現(xiàn)方案。

圖片

RC1元數(shù)據(jù)8byte,可輕松容納cursor和valids,那么下一階的RC_x,x是幾呢?按照分攤分析方法,RC_x至少有2個元素,也就是16byte的預算,在分配前還是要先看選型,RC_x需要變長因此元數(shù)據(jù)還有留出來8byte給dataptr,這樣的話,valids不能采用std::bitset<N>,因為bitset的實現(xiàn)至少需要一個字也就是8byte。valids和cursor用bit field 的方式來做分配看上去還是比較充裕的,存放58個數(shù)據(jù)元素都沒問題,實際上考慮到系統(tǒng)分配器的特點,我們并沒有這樣做。

主流的系統(tǒng)分配器大部分是slab-based,在實際應用時,除過理論單條數(shù)據(jù)損耗,還需要考慮因內(nèi)存池帶來的對齊損耗。一方面,RC1所在的鏈約占整體的80%,這樣海量的小對象適合用內(nèi)存池來管理,為避免檢索時候多一次內(nèi)存池地址轉(zhuǎn)化,我們把vaddr存儲在元數(shù)據(jù)中,釋放時再使用。另一方面,分散式地分配 N*sizeof(data),會造成每類slab的內(nèi)部非充分使用,為此RC16+采取了Array of data_array的組織方式。

RC設計有不少實現(xiàn)細節(jié),包括什么時候一次性多申請多少空間,控制內(nèi)存成本和操作效率。時間關系就不多介紹了。

6、LeafCompaction優(yōu)化稀疏

圖片

前綴樹在緩存失效方面優(yōu)于BTree,ART進一步地采用自適應節(jié)點類型,既能增加扇出優(yōu)化緩存訪問,又能控制內(nèi)存損耗。然而實際應用中,ART仍然受到key值分布稀疏的影響,這表現(xiàn)為在部分子樹扇出很小很深(較Node256),樹高無法全面降低,從而影響點查的緩存。HOT[7]提出一種自適應動態(tài)span提升平均扇出,進而降低樹高的方法,具體來說,定義節(jié)點最大扇出k,尋找一種樹的劃分,在每個劃分的分支節(jié)點數(shù)不大于k-1的前提下,沿著葉子到根的劃分數(shù)的最大值取最小,這樣的實際效果就是對于稀疏段的span足夠大,對于密集段的span足夠小,整體扇出逼近最大扇出k。如中圖所示。

對于ART+目標的連續(xù)性應用場景來說,僅僅提升扇出降低樹高是不夠的,我們發(fā)現(xiàn)存在扇出很高,但扇出后葉子數(shù)據(jù)很稀疏,同時總數(shù)據(jù)量也不高,這顯然影響了掃描性能。我們提出葉子合并(LeafCompaction),它包括判定器和操作算法。給定一個分支節(jié)點,如果它被判定為合并,則用一個葉子節(jié)點替換它,該葉子節(jié)點的前綴同該樹的前綴,內(nèi)容是該樹的數(shù)據(jù),后續(xù)插入/刪除過程遵從葉子的操作方式;如果它被判定為不變,則保持。給定一個葉子節(jié)點,如果它被判定為分裂,則用一顆樹替換它,該樹的前綴同該葉子的前綴,內(nèi)容通過BulkLoad的方式生成,如果它被判定為不變,則保持。判定器的默認算法依據(jù)子樹平均和總數(shù),節(jié)點壓縮率高達90%。如圖所示。

圖片

實際評測效果,平均到單條數(shù)據(jù)的掃描性能,稀疏場景下LC版本優(yōu)于普通版本一倍。

7、RCU面向讀者實現(xiàn)讀寫安全

圖片

一般使用深度優(yōu)化的細粒度鎖來保護倒排數(shù)據(jù)結構的并行操作,但鎖競爭帶來的性能抖動,完全抹殺了訪存優(yōu)化,我們必須探索出一種無鎖(lock-free)安全模式。提到無鎖lock-free,大家都覺得是CAS,其實一方面CAS不是銀彈,CAS常見的寫法是whileloop直到成功,如果有10個線程都在高速修改一個鏈表尾巴,這時候CAS只是說把陷入內(nèi)核省掉了,但是還是要不停地重做,這并不能完全釋放并行的能力,最好能從業(yè)務上打散。另一方面,CAS也有問題,多核下 CPU cache coherence protocol總線仲裁,導致破壞流水線。

Read-Copy-Update 是Linux內(nèi)核中的一種同步機制,被用來降低讀者側的鎖開銷,同時提供安全的寫機制,具體地來說,多個讀者(reader)并行地訪問臨界資源,寫者(writer)在更新臨界資源(critical resource)時候,拷貝一份副本作為修改基礎,修改后原子性替換掉。當所有讀者釋放了這個臨界資源后(Grace peroid),再釋放資源(reclaimer)。

Linux還需要較復雜的機制:

  • 探測靜止狀態(tài) Quiescent Status,當所有CPU都經(jīng)歷過至少一次靜止狀態(tài)時,才認為Grace peroid結束;
  • 多寫者間同步,避免丟失修改。

對于檢索服務來說,它有下面3個特點,這些特點大幅度地降低了我們的設計復雜度:

  • 單寫者,我們可能有其他的準備線程并行做更重的準備工作,但只有Reload單線程負責物料更新;
  • 非事務,檢索線程召回的多條數(shù)據(jù)間沒有嚴格約束;
  • 讀者持有時間有限,檢索線程有嚴格的超時要求。這些特點大幅度地降低了我們的設計復雜度。

8、LearnedIndex面向Workload自適應

圖片

最后,我再介紹下進行中的工作L2I。剛才都是對單鏈的優(yōu)化緩存失效,已有不錯的效果,但從更宏觀全局的視角來看,我們系統(tǒng)還有可挖掘空間:一方面,廣告投放天然導致存在較多超短鏈,另一方面,需要掃描過程跨表查詢做各類過濾邏輯等等。這些已不單單是數(shù)據(jù)分布的問題,而是在線流量和客戶投放的匹配,需要用更智能的手段來解決。

行業(yè)里面,JeffDean&TimK 聯(lián)合發(fā)表了Learned Index[8]引入RMI、CDF的模型,后續(xù)TimK團隊又有動態(tài)化、多維索引、sagedb等多種方向的發(fā)展,本質(zhì)是構建面向負載的半自動化尋優(yōu)系統(tǒng)。我們既要引入負載特征,但由于掃描過程很輕量,不能做過重的預測,同時作為對客戶有承諾的商業(yè)系統(tǒng),不能產(chǎn)生錯誤。借鑒L2I的思想,我們還做了兩個事情,一方面、通過觸發(fā)出口離線計算共現(xiàn)關系,用來合并超短鏈、短鏈,用上HIT的高性能的連續(xù)掃描能力;另一方面,取熵最大的組合<pid,cid>,提取到倒排表的bit位,確定不過1,否則為0,對于后者 fallback到點查計算。

參考資料:

[1] Software Engineering Advice from Building Large-Scale Distributed Systems, 2002

[2] Cache conscious indexing for decision-support in main memory,1999

[3] Making B+-trees cache conscious in main memory,2000

[4] FAST: fast architecture sensitive tree search on modern CPUs and GPUs,2010

[5] The Adaptive Radix Tree: ARTful Indexing for Main-Memory Databases,2013

[6] PATRICIA --Practical Algorithm To Retrieve Information Coded in Alphanumeric,1968

[7] HOT: A height optimized trie index for main-memory database systems, 2018

[8] The Case for Learned Index Structures, 2018

責任編輯:武曉燕 來源: 百度Geek說
相關推薦

2019-07-25 13:22:43

AndroidAPK文件優(yōu)化

2020-02-19 14:37:11

hashtagRediskey

2023-12-29 12:12:04

廣告性能優(yōu)化

2022-03-11 10:23:02

React性能優(yōu)化

2023-12-15 17:09:28

.NET8Primitives性能

2019-07-23 09:20:15

Kafka批量處理客戶端

2021-09-18 10:07:23

開發(fā)技能代碼

2021-02-05 15:35:21

Redis數(shù)據(jù)庫命令

2020-10-29 07:17:37

雪崩系統(tǒng)服務

2020-01-15 11:30:59

編碼優(yōu)化性能

2017-04-13 12:01:54

數(shù)據(jù)監(jiān)測信息流

2013-08-21 14:14:50

App推廣App廣告優(yōu)化移動應用市場

2015-04-02 15:03:27

青云QingCloud

2010-10-12 16:46:18

交換

2020-11-09 09:58:49

架構雙十一開發(fā)

2023-01-05 21:25:06

毫末

2022-06-20 19:39:31

微服務registry通信

2023-02-20 13:50:39

AI 領域建模大數(shù)據(jù)

2021-12-13 01:40:29

ElasticSear倒排索引
點贊
收藏

51CTO技術棧公眾號