自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

百萬token上下文窗口也殺不死向量數(shù)據(jù)庫?CPU笑了

人工智能
隨著新晉大語言模型們的上下文窗口(Context Window)變得越發(fā)得長,業(yè)界人士針對“RAG終將消亡”觀點的討論也是愈演愈烈。之所以如此,是因為它們二者都是為了解決大模型的幻覺問題(即那種一本正經(jīng)地胡說八道),可以說是屬于兩種不同頂尖技術(shù)流派之間的對峙。

“Claude 3、Gemini 1.5,是要把RAG(檢索增強生成)給搞死了嗎?”

圖片

隨著新晉大語言模型們的上下文窗口(Context Window)變得越發(fā)得長,業(yè)界人士針對“RAG終將消亡”觀點的討論也是愈演愈烈。

之所以如此,是因為它們二者都是為了解決大模型的幻覺問題(即那種一本正經(jīng)地胡說八道),可以說是屬于兩種不同頂尖技術(shù)流派之間的對峙。

一方面,以Claude 3、Gemini 1.5為代表的流派,陸續(xù)支持200K和100萬token的上下文窗口,用大力出奇跡的方式讓大模型能夠精準檢索到關(guān)鍵信息來提供準確答案。

另一方面,RAG則是一種外掛知識庫,無縫集成外部資源,為大語言模型提供了準確和最新的知識,以此來提高生成內(nèi)容的質(zhì)量。

誠然有很多人在體驗過超長上下文窗口大模型后,覺得這種方式已經(jīng)讓AI在回答的準確性上做到了突破,無需再用RAG:

圖片

而且從Claude、Gemini等玩家在測評榜單的數(shù)據(jù)來看,在回答準確性上的成績也是屢創(chuàng)新高。

但事實真是如此嗎?不見得。

因為在此期間,與“RAG要消亡了”背道而馳的聲音也是越發(fā)堅定:

從各種評價和討論來看,這派的觀點可以概括為——你(長上下文窗口)強任你強,但缺點也是蠻明顯的。

有網(wǎng)友便列舉了長上下文窗口的四大通病(四個V)

  • Velocity(速度):基于Transformer的大型模型,在檢索長上下文時要想達到亞秒級的速度響應(yīng)仍然具有挑戰(zhàn)性。
  • Value(價值):長上下文窗口畢竟屬于大力出奇跡,但它高支出的特點對于日常應(yīng)用來說,在成本上是不切實際的。
  • Volume(體量):即使上下文窗口越發(fā)得長,但和全網(wǎng)龐大的非結(jié)構(gòu)化數(shù)據(jù)相比就是小巫見大巫;尤其是企業(yè)級動輒GB、TB這種體量,還涉及眾多私有數(shù)據(jù)的情形。
  • Variety(多樣性):現(xiàn)實世界的用例不僅涉及非結(jié)構(gòu)化數(shù)據(jù),還包括各種結(jié)構(gòu)化數(shù)據(jù),它們可能不容易被LLM捕獲用來訓(xùn)練;而且企業(yè)場景中往往知識是需要實時變化的。

相反,RAG因為得益于其關(guān)鍵結(jié)構(gòu)之一的向量數(shù)據(jù)庫,反倒是可以較好地規(guī)避上述的“4V”缺陷。

向量數(shù)據(jù)庫讓大模型能夠快速有效地檢索和處理大量的向量數(shù)據(jù),從而增強了模型的整體性能和應(yīng)用范圍。

一言蔽之,關(guān)鍵看能不能“快好省”地用起來。

圖片
△圖源:由DALL·E 3生成

那么以RAG、向量數(shù)據(jù)庫為代表的這一派技術(shù),在現(xiàn)實場景中到底用得如何呢?

為了解答這個問題,我們找到了剛剛發(fā)布相關(guān)創(chuàng)新成果的騰訊云,了解了一下向量數(shù)據(jù)庫以全新構(gòu)建模式,作為AI知識庫能為大模型等帶來哪些收益?

向量數(shù)據(jù)庫,已成大模型時代數(shù)據(jù)中樞

正如我們剛才提到的,RAG的重要組成部分就是外掛的專業(yè)知識庫,因此這個知識庫中需得涵蓋能夠精準回答問題所需要的專業(yè)知識和規(guī)則。

而要構(gòu)建這個外掛知識庫,常見的方法包括向量數(shù)據(jù)庫、知識圖譜,甚至也可以直接把ElasticSearch數(shù)據(jù)接入。

但由于向量數(shù)據(jù)庫具備對高維向量的檢索能力,能夠跟大模型很好地匹配,效果也是較好的那個,所以成為了目前主流的形式。

圖片各類數(shù)據(jù)轉(zhuǎn)化為向量后存入向量數(shù)據(jù)庫

向量數(shù)據(jù)庫可以對向量化后的數(shù)據(jù)進行高效的存儲、處理與管理。

如上圖展示的那樣,數(shù)據(jù)向量化過程利用了諸如詞向量模型和卷積神經(jīng)網(wǎng)絡(luò)等人工智能技術(shù)。

通過Embedding過程,這些技術(shù)能夠?qū)⑽谋?、圖像、音視頻等多種形式的數(shù)據(jù)轉(zhuǎn)換成向量形式,并將其存儲在向量數(shù)據(jù)庫中。

至于向量數(shù)據(jù)庫的查詢功能,則是通過計算向量間的相似度來實現(xiàn)的。

而騰訊云的創(chuàng)新成果,就是騰訊云向量數(shù)據(jù)庫(Tencent Cloud VectorDB),它能為多維向量數(shù)據(jù)提供高效的存儲、檢索和分析能力。

其主要特點包括:

  • Embedding功能:數(shù)據(jù)寫入/檢索自動向量化,無需關(guān)注向量生成過程,這意味著使用門檻被狠狠地打了下去。
  • 高性能:單索引支持千億級向量數(shù)據(jù)規(guī)模,可支持百萬級 QPS 及毫秒級查詢延遲。
  • 低成本:只需簡單操作就可以創(chuàng)建向量數(shù)據(jù)庫實例,全流程平臺托管,不需要額外的開銷成本。
  • 簡單易用:不僅向量檢索能力豐富,而且通過API就能快速操作和開發(fā)。

從這些特性不難看出,它恰好補齊了我們剛才提到的上下文窗口方式的一些短板。

也正是憑借這些優(yōu)勢,騰訊云向量數(shù)據(jù)庫能夠和大語言模型無縫對接:

圖片

用戶可以將私有數(shù)據(jù)經(jīng)過文本處理和向量化后,存儲至騰訊云向量數(shù)據(jù)庫,從而創(chuàng)建一個定制化的外部知識庫。

在后續(xù)的查詢?nèi)蝿?wù)中,這個知識庫也能為大模型提供必要的提示,從而輔助AGI和AIGC等應(yīng)用產(chǎn)生更精確的輸出。

由此可見,站在大模型時代之下,向量數(shù)據(jù)庫已然不僅僅是一種技術(shù)工具,更是連接數(shù)據(jù)與AI的橋梁,是大模型時代的數(shù)據(jù)中樞,是整個AI平臺不可或缺的一部分。

借助這一項項突破,騰訊云VectorDB不僅支持多種索引類型和相似度計算方法,還具有單索引支持千億級向量規(guī)模、百萬級每秒查詢率(Queries-per-second,QPS)及毫秒級查詢時延等優(yōu)勢。

不過這樣的向量數(shù)據(jù)庫又是如何搭建起來的呢?

騰訊云還有一個殺手锏——

與英特爾合作,以至強CPU平臺為基礎(chǔ),通過軟、硬件兩方面的并行優(yōu)化,為向量數(shù)據(jù)庫提供顯著的性能加速。

CPU,向量數(shù)據(jù)庫的好搭檔

向量數(shù)據(jù)庫搭配CPU,其實不只是騰訊云一家的選擇,而是整個行業(yè)現(xiàn)階段的主流共識:

只有面臨海量高并發(fā)需求時,使用GPU查詢向量數(shù)據(jù)庫才更劃算。

究其原因,還要從向量數(shù)據(jù)庫和CPU各自的特點,以及實際業(yè)務(wù)流程分開來看。

首先從向量數(shù)據(jù)庫的角度分析,其原理上屬于密集型計算負載,需要大量訪問內(nèi)存中加載的向量。

向量數(shù)據(jù)庫與傳統(tǒng)數(shù)據(jù)庫最大的區(qū)別在于不是精確匹配,而是依靠各種相似度度量方法來找到與給定查詢最相近的向量,這就涉及大量的相似度計算,如點積、歐式距離、余弦相似度等。

如此一來,除了運算速度之外,內(nèi)存訪問速度也很容易成為向量數(shù)據(jù)庫運行中的瓶頸所在。

帶著這個背景來看,CPU不但性能夠用,還占據(jù)了內(nèi)存訪問快的優(yōu)勢。

對于中等或更少并發(fā)請求來說,雖然GPU單論運算速度更快,但CPU較低的內(nèi)存訪問時間足以抵消這個差距。

接下來,再從CPU的角度來看,它是如何來滿足向量數(shù)據(jù)庫運算性能需求的。

前面提到向量數(shù)據(jù)庫屬于密集型計算負載,談到CPU上相關(guān)的加速技術(shù),就不得不提我們的老朋友——從2017年第一代至強可擴展處理器開始就內(nèi)置在這個CPU產(chǎn)品家族中的英特爾AVX-512指令集。

這是一種單指令多數(shù)據(jù)(Single Instruction Multiple Data,SIMD)指令集,擁有512位的寄存器寬度,可以在一次操作中處理高維向量的所有數(shù)據(jù)。

圖片

△英特爾? SSE、英特爾? AVX2和英特爾? AVX-512之間的寄存器大小和計算效率的差異說明

另一項可為向量數(shù)據(jù)庫帶來顯著性能提升的是英特爾AMX (高級矩陣擴展)加速引擎,它是從第四代至強可擴展處理器開始內(nèi)置的加速技術(shù),在剛剛發(fā)布的第五代至強可擴展處理器上也是加速器的“C位”,是大家熟悉的CPU用來加速AI應(yīng)用,尤其是推理應(yīng)用的核心技術(shù)。

AMX引入的用于矩陣處理的新框架,也能高效地處理向量數(shù)據(jù)庫查詢所需的矩陣乘法運算,并在單詞運算中處理更大矩陣。

圖片

△英特爾? AMX 架構(gòu)由2D 寄存器文件 (TILE) 和 TMUL 組成

在這基礎(chǔ)上,英特爾還與騰訊云合作,針對騰訊云VectorDB常用的計算庫做了專門的優(yōu)化方案。

例如針對流行的FAISS相似度搜索(Facebook AI Similarity Search ),借助英特爾AVX-512為其中不同的索引提出不同的優(yōu)化方案,包括面向IVF- FLAT算法的ReadOnce(單次讀?。?/span>和Discretization(離散化)兩種優(yōu)化思路,來執(zhí)行用英特爾AVX-512加速IVF- PQFastScan算法和IVF-SQ索引的優(yōu)化方案。

針對另一種流行代碼庫HNSWlib,使用英特爾AVX-512不僅能加速向量檢索性能,同時還能使召回率保持平穩(wěn)。

實地測試表明,在第三代至強可擴展處理器平臺上啟用英特爾AVX-512優(yōu)化后,相比沒有啟用優(yōu)化時,使用IVF-PQFastScan算法執(zhí)行向量檢索時的QPS性能提升了約一倍;而把計算平臺升級到目前最新的第五代至強可擴展處理器平臺后,性能更是會提升2.3倍!

圖片

△英特爾軟硬件產(chǎn)品與技術(shù)帶來的性能提升(歸一化)

還有,在使用第五代至強可擴展處理器的算力平臺上,如果使用英特爾AMX 加速數(shù)據(jù)格式為 INT8的測試場景,相比使用英特爾AVX-512加速數(shù)據(jù)格式為 FP32的測試場景,性能提升可達約5.8倍。

圖片

△英特爾? AMX 優(yōu)化加速暴力檢索的吞吐性能(歸一化)

AI走向平臺化,模型不是唯一主角

了解過騰訊云與英特爾的具體實踐和優(yōu)化成果,再來看我們最開始的討論,答案也就明晰了。

即使AI模型能力不斷加速進化,向量數(shù)據(jù)庫以及整個RAG技術(shù)也沒到消亡的時候。

究其原因,便是單純的模型能力本身已經(jīng)難以滿足日益深入的應(yīng)用落地需求,AI在落地時必須會走向復(fù)雜系統(tǒng),或者說平臺化。

向量數(shù)據(jù)庫承載著外部知識,會在這個AI系統(tǒng)或平臺時發(fā)揮自己的價值,但也只是其中的組件之一。

站在這個層面上看,AI系統(tǒng)或平臺的綜合能力已不只單看模型自身,還要與整個系統(tǒng)中其他組件相互配合。

AI系統(tǒng)或平臺的性能效率也需要從整體考量,不僅僅取決于模型的準確性和速度。

在騰訊云VectorDB的業(yè)務(wù)實踐中,最終能發(fā)現(xiàn)CPU是與向量數(shù)據(jù)庫業(yè)務(wù)很契合,就綜合性能、可擴展性、功耗、成本等因素而言是很登對的搭檔,這就讓CPU在直接加速一些AI應(yīng)用之余,也能成為承載AI系統(tǒng)或平臺中更多組件的基礎(chǔ)。

這個故事的另一個主角英特爾,也在順應(yīng)這一趨勢不斷深入優(yōu)化,既在微觀上用一顆顆芯片給大模型加速,又在宏觀上用CPU相關(guān)技術(shù)給整個AI系統(tǒng)或平臺的落地、應(yīng)用及實踐加速。

更多CPU支持向量數(shù)據(jù)庫的解決方案內(nèi)容,請點擊“閱讀原文”獲取。

參考鏈接:

[1]https://zilliz.com/blog/will-retrieval-augmented-generation-RAG-be-killed-by-long-context-LLMs。

[2]https://www.reddit.com/r/hypeurls/comments/1b9dfo5/gemini_and_claudes_are_killing_rag/。

[3]https://cloud.tencent.com/product/vdb。

責任編輯:姜華 來源: 量子位
相關(guān)推薦

2021-07-26 07:47:36

Cpu上下文進程

2019-05-06 14:36:48

CPULinux寄存器

2022-04-24 15:37:26

LinuxCPU

2022-09-26 23:36:33

Linux系統(tǒng)CPU

2022-04-25 11:27:34

LinuxCPU

2017-05-11 14:00:02

Flask請求上下文應(yīng)用上下文

2023-08-10 14:04:15

代碼模型

2024-02-19 13:46:04

多模態(tài)信息LWMtoken

2024-01-29 08:49:36

RAG模型檢索

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文

2022-09-15 08:01:14

繼承基礎(chǔ)設(shè)施基礎(chǔ)服務(wù)

2024-02-20 13:31:46

模型數(shù)據(jù)

2025-04-14 09:00:00

模型AI數(shù)據(jù)

2023-07-11 10:02:23

2022-10-28 16:24:33

Context上下文鴻蒙

2024-09-30 14:10:00

2017-12-17 17:01:23

限界上下文系統(tǒng)模型

2025-03-18 08:14:05

2020-07-24 10:00:00

JavaScript執(zhí)行上下文前端
點贊
收藏

51CTO技術(shù)棧公眾號