自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

得物社區(qū)億級ES數(shù)據(jù)搜索性能調(diào)優(yōu)實踐

開發(fā) 后端
ES在大結果集指定字段排序的場景下性能不佳,我們使用時應該盡量避免出現(xiàn)這種場景。如果無法避免,合適的IndexSorting設置能大幅提升排序性能。

1、背景

20年以來內(nèi)容標注結果搜索就是社區(qū)中后臺業(yè)務的核心高頻使用場景之一,為了支撐復雜的后臺搜索,我們將社區(qū)內(nèi)容的關鍵信息額外存了一份到Elasticsearch中作為二級索引使用。隨著標注業(yè)務的細分、迭代和時間的推移,這個索引的文檔數(shù)和搜索的RT開始逐步上升。

下面是這個索引當前的監(jiān)控情況。

圖片

本文介紹社區(qū)利用IndexSorting,將億級文檔搜索性能由最開始2000ms優(yōu)化到50ms的過程。如果大家遇到相似的問題和場景,相信看完之后一定能夠一行代碼成噸收益。

2、探索過程

2.1 初步優(yōu)化

最開始需求很簡單,只需要取最新發(fā)布的動態(tài)分頁展示。這時候?qū)崿F(xiàn)也是簡單粗暴,滿足功能即可。查詢語句如下:

GET /content-alias/_search
{
  "track_total_hits": true,
  "sort": [
    {
      "publish_time": {
        "order": "desc"
      }
    }
  ],
  "size": 10
}

由于首頁加載時沒加任何篩選條件,于是變成了從億級內(nèi)容庫中找出最新發(fā)布的10條內(nèi)容。

針對這個查詢很容易發(fā)現(xiàn)問題出現(xiàn)在大結果集的排序,要解決問題,自然的想到了兩條路徑:

  • 去掉sort
  • 縮小結果集

經(jīng)過用戶訴求和開發(fā)成本的權衡后,當時決定“先扛住,再優(yōu)化”:在用戶打開首頁的時候,默認增加“發(fā)布時間在最近一周內(nèi)”的篩選條件,這時語句變成了:

GET /content-alias/_search
{
  "track_total_hits": true,
  "query": {
    "bool": {
      "filter": [
        {
          "range": {
            "publish_time": {
              "gte": 1678550400,
              "lt": 1679155200
            }
          }
        }
      ]
    }
  },
  "sort": [
    {
      "publish_time": {
        "order": "desc"
      }
    }
  ],
  "size": 10
}

這個改動上線后,效果可以說是立竿見影,首頁加載速度立馬降到了200ms以內(nèi),平均RT60ms。這次改動也為我們減小了來自業(yè)務的壓力,為后續(xù)的優(yōu)化爭取了不少調(diào)研的時間。

雖然搜索首頁的加載速度明顯快了,但是并沒有實際解決根本問題——ES大結果集指定字段排序還是很慢。對業(yè)務來說,結果頁上的一些邊界功能的體驗依舊不能盡如人意,比如導出、全量動態(tài)的搜索等等。這一點從監(jiān)控上也能夠較明顯的看出:慢查詢還是存在,并且還伴隨著少量的接口超時。

圖片

老實說這個時期我們對于ES的了解還比較基礎,只能說會用、知道分片、倒排索引、相關性打分,然后就沒有了??傊覀冇辛朔较颍_始奮起直追。

2.2 細致打磨

2.2.1 知識積累

帶著之前遺留的問題,我們開始開始重新出發(fā),從頭學習ES。要優(yōu)化搜索性能,首先我們要知道的是搜索是怎么做的。下面我們就以一個最簡單的搜索為例,拆解一下整個搜索請求的過程。

(1)搜索請求
GET /content-alias/_search
{
  "track_total_hits":false,
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "category_id.keyword": "xxxxxxxx"
          }
        }
      ]
    }
  }, 
  "size": 10
}

精確查詢category_id為"xxxxxxxx"的文檔,取10條數(shù)據(jù),不需要排序,不需要總數(shù)

總流程分3步:

  1. 客戶端發(fā)起請求到Node1
  2. Node1作為協(xié)調(diào)節(jié)點,將請求轉(zhuǎn)發(fā)到索引的每個主分片或副分片中,每個分片在本地執(zhí)行查詢。
  3. 每個節(jié)點返回各自的數(shù)據(jù),協(xié)調(diào)節(jié)點匯總后返回給客戶端

如圖可以大致描繪這個過程:

圖片

我們知道ES是依賴Lucene提供的能力,真正的搜索發(fā)生在Lucene中,還需要繼續(xù)了解Lucene中的搜索過程。

(2)Lucene

Lucene中包含了四種基本數(shù)據(jù)類型,分別是:

  • Index:索引,由很多的Document組成。
  • Document:由很多的Field組成,是Index和Search的最小單位。
  • Field:由很多的Term組成,包括Field Name和Field Value。
  • Term:由很多的字節(jié)組成。一般將Text類型的Field Value分詞之后的每個最小單元叫做Term。

在介紹Lucene index的搜索過程之前,這里先說一下組成Lucene index的最小數(shù)據(jù)存儲單元——Segment。

Lucene index由許許多多的Segment組成,每一個Segment里面包含著文檔的Term字典、Term字典的倒排表、文檔的列式存儲DocValues以及正排索引。它能夠獨立的直接對外提供搜索功能,幾乎是一個縮小版的Lucene index。

(3)Term字典和倒排表

圖片

上圖是Term字典和其倒排表的大致樣子

當然這里還有些重要數(shù)據(jù)結構,比如:

  • FST:term索引,在內(nèi)存中構建??梢钥焖賹崿F(xiàn)單Term、Term范圍、Term前綴和通配符查詢。
  • BKD-Tree:用于數(shù)值類型(包括空間點)的快速查找。
  • SkipList:倒排表的數(shù)據(jù)結構

這里面的細節(jié)比較多,感興趣的可以單獨了解,這里不影響我們的整體搜索流程,不過多贅述。

有了Term字典和倒排表我們就能直接拿到搜索條件匹配的結果集了,接下來只需要通過docID去正排索引中取回整個doc然后返回就完事兒了。

這是ES的基本盤理論上不會慢,我們猜測慢查詢發(fā)生在排序上。那給請求加一個排序會發(fā)生什么呢?比如:

GET /content-alias/_search
{
  "track_total_hits":false,
  "query": {
    "bool": {
      "filter": [
        {
          "term": {
            "category_id.keyword": "xxxxxxxx"
          }
        }
      ]
    }
  }, 
  "sort": [
    {
      "publish_time": {
        "order": "desc"
      }
    }
  ],
  "size": 10
}

通過倒排表拿到的docId是無序的,現(xiàn)在指定了排序字段,最簡單直接的辦法是全部取出來,然后排序取前10條。這樣固然能實現(xiàn)效果,但是效率卻是可想而知。那么Lucene是怎么解決的呢?

(4)DocValues

倒排索引能夠解決從詞到文檔的快速映射,但需要對檢索結果進行分類、排序、數(shù)學計算等聚合操作時需要文檔號到值的快速映射。而正排索引又過于臃腫龐大,怎么辦呢?

這時候各位大佬可能就直接想到了列式存儲,沒有錯,Lucene就引入了基于docId的列式存儲結構——DocValues

文檔號

列值

列值映射

0

2023-01-13

2

1

2023-01-12

1

2

2023-03-13

3

比如上表中的DocValues=[2023-01-13, 2023-01-12,2023-03-13]

如果列值是字符串,Lucene會把原來的字符串值按照字典排序生成數(shù)字ID,這樣的預處理能進一步加快排序速度。于是我們得到了DocValues=[2, 1, 3]

Docvalues的列式存儲形式可以加快我們的遍歷的速度。到這里一個常規(guī)的搜索取前N條記錄的請求算是真正的拆解完成。這里不討論詞頻、相關性打分、聚合等功能的分析,所以本文對整個過程和數(shù)據(jù)結構做了大幅簡化。如果對這部分感興趣,歡迎一起討論。

此時排序慢的問題也逐漸浮出了水面:盡管Docvalues又是列式存儲,又是將復雜值預處理為簡單值避免了查詢時的復雜比較,但是依舊架不住我們需要排序的數(shù)據(jù)集過大。

看起來ES盡力了,它好像確實不擅長解決我們這個場景的慢查詢問題。

不過有靈性的各位讀者肯定想到了,如果能把倒排表按照我們預先指定的順序存儲好,就能省下整個排序的時間。

2.2.2 IndexSorting

很快ES官方文檔《How to tune for search speed》中提到了一個搜索優(yōu)化手段——索引排序(Index Sorting)出現(xiàn)在了我們的視野中。

從文檔上的描述我們可以知道,索引排序?qū)τ谒阉餍阅艿奶嵘饕趦蓚€方面:

  1. 對于多條件并列查詢(a and b and ...),索引排序可以幫助我們把不符合條件的文檔存在一起,跳過大量的不匹配的文檔。但是此技巧僅適用于經(jīng)常用于篩選的低基數(shù)字段。
  2. 提前中斷:當搜索排序和索引排序指定的順序一樣時,只需要比較每個段的前 N 個文檔,其他的文檔僅需要用于總數(shù)計算。比如:我們的文檔中有一個時間戳,而我們經(jīng)常需要按照時間戳來搜索和排序,這時候如果指定的索引排序和搜索排序一致,通常能夠極大的提高搜索排序的效率。

提前中斷?。?!簡直是缺什么來什么,于是我們開始圍繞這一點展開調(diào)研。

(1)開啟索引排序
PUT /content
{
    "settings": {
        "index": {
            "sort.field": "publish_time", // 可指定多個字段
            "sort.order": "desc"
        }
    },
    "mappings": {
        "properties": {
            "content_id": {
                "type": "long"
            },
            "publish_time": {
                "type": "long"
            },
            ...
        }
    }
}

如上面的例子,文檔在寫入磁盤時會按照 publish_time 字段的遞減序進行排序。

在前面的段落中我們反復提到了docID和正排索引。這里我們順帶簡單介紹下他們的關系,首先Segment中的每個文檔,都會被分配一個docID,docID從0開始,順序分配。在沒有IndexSorting時,docID是按照文檔寫入的順序進行分配的,在設置了IndexSorting之后,docID的順序就與IndexSorting的順序一致。

下圖描述了docID和正排索引的關系:

圖片

那么再次回頭來看看我們最開始的查詢:

GET /content-alias/_search
{
  "track_total_hits":true,
  "sort": [
    {
      "publish_time": {
        "order": "desc"
      }
    }
  ],
  "size": 10
}

在Lucene中進行查詢時,發(fā)現(xiàn)結果集的倒排表順序剛好是publish_time降序排序的,所以查詢到前10條數(shù)據(jù)之后即可返回,這就做到了提前中斷,省下了排序開銷。那么代價是什么呢?

(2)代價

IndexSorting和查詢時排序不一樣,本質(zhì)是在寫入時對數(shù)據(jù)進行預處理。所以排序字段只能在創(chuàng)建時指定且不可更改。并且由于寫入時要對數(shù)據(jù)進行排序,所以也會對寫入性能也會有一定負面影響。

之前我們提到了Lucene本身對排序也有各種優(yōu)化,所以如果搜索結果集本身沒有那么多的數(shù)據(jù),那么就算不開啟這個功能,也能有不錯的RT。

另外由于多數(shù)時候還是要計算總數(shù),所以開啟索引排序之后只能提前中斷排序過程,還是要對結果集的總數(shù)進行count。如果能夠不查總數(shù),或者說通過另外的方式獲取總數(shù),那么能夠更好的利用這個特性。

小結:

  • 針對大結果集的排序取前N條的場景下,索引排序能顯著提高搜索性能。
  • 索引排序只能在創(chuàng)建索引時指定,不可更改。如果你有多個指定字段排序的場景,可能需要慎重選擇排序字段。
  • 不獲取總數(shù)能更好的利用索引排序。
  • 開啟索引排序會一定程度降低寫性能。這里貼一條ElaticsearchBenchmarks的數(shù)據(jù)截圖供大家參考。

圖片

見:Elasticsearch Benchmarks

2.3 效果

由于我們的業(yè)務遠遠沒有達到ES的寫入瓶頸,而且也少有頻繁變更排序字段的場景。在經(jīng)過短暫的權衡之后,確定索引排序正是我們需要的,于是開始使用線上真實數(shù)據(jù)對索引排序的效果進行簡單的性能測試。

(1)性能測試:首頁

圖片

(2)性能測試:其他

這里開啟索引排序后,隨機幾個常規(guī)條件和時間窗口的搜索組合測試

圖片

可以看到效果非常明顯,沒有以前的那種尖刺,RT也很穩(wěn)定,于是我們決定正式上線這個功能。

(3)線上效果

慢查詢

圖片

整體前后對比

圖片

和我們預期的基本一樣,搜索RT大幅降低,慢查詢完全消失。

2.4 后續(xù)優(yōu)化

在探索過程中,其實還發(fā)現(xiàn)了一些其他的優(yōu)化手段,鑒于開發(fā)成本和收益,有些我們并沒有完全應用于生產(chǎn)環(huán)境。這里列出其中幾點,希望能給大家一些啟發(fā)。

  • 不獲取總數(shù): 大部分場景下,不查詢總數(shù)都能減少開銷,提高性能。ES 7.x之后的搜索接口默認不返回總數(shù)了,由此可見一斑。
  • 自定義routing規(guī)則: 從上文的查詢過程我們可以看到,ES會輪詢所有分片以獲取想要的數(shù)據(jù),如果我們能控制數(shù)據(jù)的分片落點,那么也能節(jié)省不少開銷。比如說:如果我們將來如果有大量的場景都是查某個用戶的動態(tài),那么可以控制按照用戶分片,這樣就避免了分片輪詢,也能提升搜索效率。
  • keyword: 不是所有的數(shù)字都應該按照數(shù)值字段來存,如果你的數(shù)字值很少用于范圍查詢,但是經(jīng)常被用作term查詢,并且對搜索rt很敏感。那么keyword才是最適合的存儲方式。
  • 數(shù)據(jù)預處理:就像IndexSoting一樣,如果我們能夠在寫入時預處理好數(shù)據(jù),也能節(jié)省搜索時的開銷。這一點配合_ingest/pipeline 也許能發(fā)揮意想不到的效果。

3、寫在最后

相信看到這里的大家都能看出,我們的優(yōu)化中也沒有涉及到十分高深的技術難點,我們只是在解決問題的過程中,逐步從小白轉(zhuǎn)變成了一個初學者。來一個大牛也許從一開始就能直接繞過我們的彎路,不過萬里之行始于足下,最后這里總結一點經(jīng)驗和感受分享給大家,希望能給與我們一樣的初學者一些參考。

ES在大結果集指定字段排序的場景下性能不佳,我們使用時應該盡量避免出現(xiàn)這種場景。如果無法避免,合適的IndexSorting設置能大幅提升排序性能。

優(yōu)化永無止境,權衡好成本和收益,集中資源解決最優(yōu)先和重要的問題才是我們應該做的。


責任編輯:武曉燕 來源: 得物技術
相關推薦

2021-11-07 23:49:19

SQL數(shù)據(jù)庫工具

2023-03-13 18:35:33

灰度環(huán)境golang編排等

2024-11-20 19:56:36

2017-07-21 08:55:13

TomcatJVM容器

2012-06-20 11:05:47

性能調(diào)優(yōu)攻略

2023-03-30 18:39:36

2011-07-08 16:02:54

HBase

2021-03-04 08:39:21

SparkRDD調(diào)優(yōu)

2024-11-21 08:00:00

向量搜索人工智能

2019-07-30 09:00:00

Snowflake數(shù)據(jù)庫性能調(diào)優(yōu)

2011-03-10 14:40:54

LAMPMysql

2023-01-13 18:32:40

計數(shù)系統(tǒng)設計

2011-11-14 10:28:23

2020-11-30 11:40:35

NginxLinux性能調(diào)優(yōu)

2010-02-04 11:55:27

ibmdwDB2

2025-03-13 06:48:22

2023-10-09 18:35:37

得物Redis架構

2011-05-20 15:02:01

Oracle性能調(diào)優(yōu)

2023-01-11 18:34:22

推薦精排模型

2019-01-30 09:34:56

ElasticSearLogstashKibana
點贊
收藏

51CTO技術棧公眾號