RAG 應(yīng)用效果不太理想?試試以下RAG優(yōu)化策略大幅提升問答效果 原創(chuàng)
自從2022年12月 ChatGPT 橫空面世以來(lái),AI 領(lǐng)域獲得了十足的關(guān)注和資本,其實(shí)AI的概念在早些年也火過(guò)一波,本輪 AI 熱潮相比于之前的 AI,最大的區(qū)別在于:生成式。通過(guò)海量文本訓(xùn)練的、能識(shí)別人類語(yǔ)言、執(zhí)行語(yǔ)言類任務(wù)、擁有大量參數(shù)的模型,稱之為大語(yǔ)言模型。GPT、LLaMA、Mistral、BERT等都是LLM,LLM是對(duì)訓(xùn)練文本信息的壓縮,同時(shí)擁有了泛化能力,不同于數(shù)據(jù)庫(kù)和搜索引擎,LLM能創(chuàng)造性地生成歷史上沒有出現(xiàn)過(guò)的文本內(nèi)容。
雖然LLM很強(qiáng)大,但有以下缺點(diǎn):
- 知識(shí)的局限性:模型自身的知識(shí)完全源于它的訓(xùn)練數(shù)據(jù),當(dāng)LLM訓(xùn)練完成后,本身數(shù)據(jù)已經(jīng)固化,無(wú)法更新,對(duì)于一些實(shí)時(shí)性的、非公開的或離線的數(shù)據(jù)是無(wú)法獲取的,周期性的微調(diào)耗時(shí)耗力。
- 幻覺問題:LLM模型在回答問題時(shí),當(dāng)遇到訓(xùn)練數(shù)據(jù)中不存在或存在較少的對(duì)話場(chǎng)景,會(huì)根據(jù)已有知識(shí)拼湊出答案,而這種答案很可能是不存在的、不正確的,稱之為幻覺。無(wú)論訓(xùn)練數(shù)據(jù)有多大,隨著使用使用場(chǎng)景的增加,幻覺問題不可避免。
- 數(shù)據(jù)安全性:對(duì)于企業(yè)來(lái)說(shuō),將自身數(shù)據(jù)完全訓(xùn)練至LLM模型中,一旦模型泄露會(huì)產(chǎn)生重大影響。
現(xiàn)如今解決上面缺點(diǎn)的一種方案就是RAG,即檢索增強(qiáng)生成(Retrieval Augmented Generation)。RAG能夠?qū)⑺接驍?shù)據(jù)獨(dú)立于LLM外,但又能在問答過(guò)程中被LLM參考,提高LLM的知識(shí)儲(chǔ)備和實(shí)時(shí)更新能力,這樣也可以降低LLM幻覺問題。一句話總結(jié):RAG(檢索增強(qiáng)生成) = 檢索技術(shù) + LLM 提示。
但是RAG方案想真正落地到實(shí)際生產(chǎn)上,會(huì)遇到很多問題,為了解決這些問題,我們需要很多的優(yōu)化方案,今天就來(lái)分享一些RAG領(lǐng)域常用的優(yōu)化策略。
RAG 各模塊有哪些優(yōu)化策略?
- 文檔塊切分:設(shè)置適當(dāng)?shù)膲K間重疊、多粒度文檔塊切分、基于語(yǔ)義的文檔切分、文檔塊摘要。
- 文本嵌入模型:基于新語(yǔ)料微調(diào)嵌入模型、動(dòng)態(tài)表征
- 提示工程優(yōu)化:優(yōu)化模板增加提示詞約束、提示詞改寫
- 大模型迭代:基于正反饋微調(diào)模型、量化感知訓(xùn)練、提供大context window的推理模型。
如何利用知識(shí)圖譜進(jìn)行上下文增強(qiáng)?
在典型的RAG架構(gòu)中,基于向量數(shù)據(jù)庫(kù)進(jìn)行上下文增強(qiáng)存在如下問題:
- 無(wú)法獲取長(zhǎng)程關(guān)聯(lián)知識(shí)
- 信息密度低(尤其當(dāng)LLM context window較小時(shí)不友好)
那么如何利用 知識(shí)圖譜進(jìn)行上下文增強(qiáng)呢?
- 一個(gè)比較好的方案是增加一路與向量庫(kù)平行的KG(知識(shí)圖譜)上下文增強(qiáng)策略。
- 另一種方案是利用NL2Cypher進(jìn)行KG增加:根據(jù)query抽取實(shí)體,然后把實(shí)體作為種子節(jié)點(diǎn)對(duì)圖進(jìn)行采樣(必要時(shí),可把KG中節(jié)點(diǎn)和query中實(shí)體先向量化,通過(guò)向量相似度設(shè)置種子節(jié)點(diǎn)),然后把獲取的子圖轉(zhuǎn)換成文本片段,從而達(dá)到上下文增強(qiáng)的效果。
如何有選擇地進(jìn)行知識(shí)庫(kù)召回
經(jīng)典的RAG模型通過(guò)提供與問題相關(guān)的上下文信息來(lái)支持LLM在回答知識(shí)密集型問題。然而,這種方法存在兩個(gè)主要問題:
- 過(guò)度檢索:RAG系統(tǒng)并不針對(duì)用戶意圖進(jìn)行精細(xì)的判斷,而是對(duì)每次輸入都執(zhí)行top-k的知識(shí)檢索,可能導(dǎo)致引入不必要或偏離主題的信息,從而影響輸出的質(zhì)量。例如,當(dāng)用戶僅是打招呼時(shí)(如 "hello"),理想的做法是直接利用LLM的能力來(lái)回答,而不需要查詢知識(shí)庫(kù)
- 輸出一致性問題:無(wú)法百分百確定回答的內(nèi)容就是完全參考檢索到的上下文還是來(lái)自模型自己的生成,因?yàn)榇竽P捅旧聿荒鼙WC絕對(duì)的遵循,更何況知識(shí)的相關(guān)性也會(huì)存疑。
在實(shí)際應(yīng)用RAG時(shí),我們常常通過(guò)精細(xì)化的工作流程設(shè)計(jì)和創(chuàng)新性的Prompt調(diào)整來(lái)盡量緩解上述問題。具體來(lái)說(shuō):
- 我們可以利用LLM的能力,在執(zhí)行檢索步驟之前先判斷是否真的需要進(jìn)行檢索。
- 在給出Prompt指令時(shí),我們可以確保LLM嚴(yán)格按照找到的參考知識(shí)來(lái)形成答案。
- 我們還可能依賴LLM的強(qiáng)大能力對(duì)答案進(jìn)行評(píng)估,經(jīng)過(guò)多輪迭代優(yōu)化,以提升答案的質(zhì)量。
然而這些方案往往比較復(fù)雜,并可能引入一些難以控制的潛在問題。Self-RAG則是另一種解決這些挑戰(zhàn)的方案。具體可以參考這篇文章:??讓你的RAG應(yīng)用更加智能!引入自我反思的大模型 RAG 框架(Self-RAG)??
如何讓RAG支持多模態(tài)
對(duì)多模態(tài)RAG而言有三種技術(shù)路線,如下我們做個(gè)簡(jiǎn)要說(shuō)明:
- 選項(xiàng)1:對(duì)文本和表格生成summary,然后應(yīng)用多模態(tài)embedding模型把文本/表格summary、原始圖片轉(zhuǎn)化成embedding存入多向量檢索器。對(duì)話時(shí),根據(jù)query召回原始文本/表格/圖像。然后將其喂給多模態(tài)LLM生成應(yīng)答結(jié)果。
- 選項(xiàng)2:首先應(yīng)用多模態(tài)大模型(GPT4-V、LLaVA、FUYU-8b)生成圖片summary。然后對(duì)文本/表格/圖片summary進(jìn)行向量化存入多向量檢索器中。當(dāng)生成應(yīng)答的多模態(tài)大模型不具備時(shí),可根據(jù)query召回原始文本/表格+圖片summary。
- 選項(xiàng)3:前置階段同選項(xiàng)2相同。對(duì)話時(shí),根據(jù)query召回原始文本/表格/圖片。構(gòu)造完整Prompt,訪問多模態(tài)大模型生成應(yīng)答結(jié)果。
RAG Fusion 優(yōu)化策略
思路:檢索增強(qiáng)這一塊主要借鑒了RAG Fusion技術(shù),這個(gè)技術(shù)原理比較簡(jiǎn)單,概括起來(lái)就是,當(dāng)接收用戶query時(shí),讓大模型生成5-10個(gè)相似的query,然后每個(gè)query去匹配5-10個(gè)文本塊,接著對(duì)所有返回的文本塊再做個(gè)倒序融合排序,如果有需求就再加個(gè)精排,最后取Top K個(gè)文本塊拼接至prompt。
優(yōu)點(diǎn):
- 增加了相關(guān)文本塊的召回率;
- 對(duì)用戶的query自動(dòng)進(jìn)行了文本糾錯(cuò)、分解長(zhǎng)句等功能
缺點(diǎn):無(wú)法從根本上解決理解用戶意圖的問題。
模塊化 RAG 優(yōu)化策略
動(dòng)機(jī):打破了傳統(tǒng)的“原始 RAG”框架,這個(gè)框架原本涉及索引、檢索和生成,現(xiàn)在提供了更廣泛的多樣性和更高的靈活性。
模塊介紹:
- 搜索模塊:融合了直接在(附加的)語(yǔ)料庫(kù)中進(jìn)行搜索的方法。這些方法包括利用大語(yǔ)言模型(LLM)生成的代碼、SQL、Cypher 等查詢語(yǔ)言,或是其他定制工具。其搜索數(shù)據(jù)源多樣,涵蓋搜索引擎、文本數(shù)據(jù)、表格數(shù)據(jù)或知識(shí)圖等。
- 記憶模塊:本模塊充分利用大語(yǔ)言模型本身的記憶功能來(lái)引導(dǎo)信息檢索。其核心原則是尋找與當(dāng)前輸入最為匹配的記憶。這種增強(qiáng)檢索的生成模型能夠利用其自身的輸出來(lái)自我提升,在推理過(guò)程中使文本更加貼近數(shù)據(jù)分布,而非僅依賴訓(xùn)練數(shù)據(jù)。
- 額外生成模塊:面對(duì)檢索內(nèi)容中的冗余和噪聲問題,這個(gè)模塊通過(guò)大語(yǔ)言模型生成必要的上下文,而非直接從數(shù)據(jù)源進(jìn)行檢索。通過(guò)這種方式,由大語(yǔ)言模型生成的內(nèi)容更可能包含與檢索任務(wù)相關(guān)的
信息。
- 任務(wù)適應(yīng)模塊:該模塊致力于將 RAG 調(diào)整以適應(yīng)各種下游任務(wù)。
- 對(duì)齊模塊:在 RAG 的應(yīng)用中,查詢與文本之間的對(duì)齊一直是影響效果的關(guān)鍵因素。在模塊化 RAG的發(fā)展中,研究者們發(fā)現(xiàn),在檢索器中添加一個(gè)可訓(xùn)練的 Adapter 模塊能有效解決對(duì)齊問題。
- 驗(yàn)證模塊:在現(xiàn)實(shí)世界中,我們無(wú)法總是保證檢索到的信息的可靠性。檢索到不相關(guān)的數(shù)據(jù)可能會(huì)導(dǎo)致大語(yǔ)言模型產(chǎn)生錯(cuò)誤信息。因此,可以在檢索文檔后加入一個(gè)額外的驗(yàn)證模塊,以評(píng)估檢索到的
文檔與查詢之間的相關(guān)性,這樣做可以提升 RAG的魯棒性。
查詢轉(zhuǎn)換(Query Transformations)
- 動(dòng)機(jī):在某些情況下,用戶的 query 可能出現(xiàn)表述不清、需求復(fù)雜、內(nèi)容無(wú)關(guān)等問題;
- 查詢轉(zhuǎn)換(Query Transformations):利用了大型語(yǔ)言模型(LLM)的強(qiáng)大能力,通過(guò)某種提示或方法將原始的用戶問題轉(zhuǎn)換或重寫為更合適的、能夠更準(zhǔn)確地返回所需結(jié)果的查詢。LLM的能力確保了轉(zhuǎn)換后的查詢更有可能從文檔或數(shù)據(jù)中獲取相關(guān)和準(zhǔn)確的答案。
- 查詢轉(zhuǎn)換的核心思想:用戶的原始查詢可能不總是最適合檢索的,所以我們需要某種方式來(lái)改進(jìn)或擴(kuò)展它。
RAG 索引優(yōu)化有哪些優(yōu)化策略?
微調(diào)嵌入
- 影響因素:影響到 RAG 的有效性;
- 目的:讓檢索到的內(nèi)容與查詢之間的相關(guān)性更加緊密;
- 作用:可以比作在語(yǔ)音生成前對(duì)“聽覺”進(jìn)行調(diào)整,優(yōu)化檢索內(nèi)容對(duì)最終輸出的影響。特別是在處理不斷變化或罕見術(shù)語(yǔ)的專業(yè)領(lǐng)域,這些定制化的嵌入方法能夠顯著提高檢索的相關(guān)性。
檢索處理流程
- ReRank(重新排序)
- Prompt 壓縮
- RAG 管道優(yōu)化
- 混合搜索
- 遞歸檢索與查詢引擎
- StepBack-prompt 方法
- 子查詢
- HyDE 方法
知識(shí)庫(kù)召回率低
- 知識(shí)庫(kù)里面是否有對(duì)應(yīng)答案?如果沒有那就是知識(shí)庫(kù)覆蓋不全問題
- 知識(shí)庫(kù)有,但是沒召回:
- 知識(shí)庫(kù)知識(shí)是否被分割掉,導(dǎo)致召回出錯(cuò),解決方法 修改分割方式 or 利用bert 進(jìn)行上下句預(yù)測(cè)保證知識(shí)點(diǎn)完整性
- 知識(shí)沒有被召回,分析 query 和 doc 的特點(diǎn):字相關(guān)還是語(yǔ)義相關(guān),一般建議是先用 es做召回,然后才用模型做精排
chunk大小指定多少
在構(gòu)建RAG時(shí),確定塊大小是關(guān)鍵,它決定從向量存儲(chǔ)中檢索的文檔長(zhǎng)度。太小可能缺失關(guān)鍵信息,太大可能帶來(lái)噪音。找到最佳塊大小需要適當(dāng)平衡,這通常通過(guò)反復(fù)試驗(yàn)來(lái)實(shí)現(xiàn)。不過(guò),這并非隨機(jī)嘗試,而是通過(guò)在測(cè)試集上運(yùn)行評(píng)估并計(jì)算指標(biāo)來(lái)找出最佳值。LlamaIndex具有此類功能,詳細(xì)信息可參考他們的博客。
如何通過(guò) 混合檢索 提升 RAG 效果
雖然向量搜索有助于找到與查詢語(yǔ)義相關(guān)的塊,但在精確匹配關(guān)鍵詞方面可能不足。比如,在數(shù)百萬(wàn)電商產(chǎn)品中搜“阿迪達(dá)斯 XYZ 參考白色運(yùn)動(dòng)鞋”,返回的都是白色阿迪達(dá)斯運(yùn)動(dòng)鞋,沒有精確匹配XYZ參考。針對(duì)這種情況,混合檢索能提供解決方案。它將矢量搜索和關(guān)鍵詞搜索的優(yōu)勢(shì)結(jié)合起來(lái),既能匹配相關(guān)關(guān)鍵字,又能保持查詢意圖的控制。想了解更多混合搜索信息,可查閱Pinecone的入門指南。
如何通過(guò) 重新排名 提升 RAG 效果
查詢向量存儲(chǔ)時(shí),前K個(gè)結(jié)果可能并未按相關(guān)性排序。在這些相關(guān)塊中,最相關(guān)的可能是第5或第7個(gè),而非第1或第2個(gè),這就需要重新排名。簡(jiǎn)單說(shuō),重新排名就是把最相關(guān)的信息調(diào)整到提示的前沿。這一概念已在LlamaIndex、LangChain和HayStack等多種框架中實(shí)現(xiàn)。比如,Diversity Ranker側(cè)重于按文檔多樣性重新排序,而LostInTheMiddleRanker則在上下文窗口開始和結(jié)束間交替放置最佳文檔。
RAG 如何 提升索引數(shù)據(jù)的質(zhì)量
索引數(shù)據(jù)的質(zhì)量直接影響RAG答案的質(zhì)量,因此優(yōu)先工作是在攝取數(shù)據(jù)前盡可能清理它們——垃圾入則垃圾出。這包括刪除重復(fù)/冗余信息,識(shí)別不相關(guān)文檔,及時(shí)校驗(yàn)事實(shí)的準(zhǔn)確性。在使用過(guò)程中,對(duì)RAG的維護(hù)和更新過(guò)時(shí)文檔也至關(guān)重要。在構(gòu)建RAG時(shí),我們常常忽視了清理數(shù)據(jù)這一步驟,直接倒入所有文檔而未驗(yàn)證其質(zhì)量。
以下我建議可以快速解決一些問題:
- 通過(guò)清理特殊字符、奇怪的編碼、不必要的 HTML 標(biāo)簽來(lái)消除文本噪音……還記得使用正則表達(dá)式的老的NLP 技術(shù)嗎?可以把他們重復(fù)使用起來(lái);
- 通過(guò)實(shí)施一些主題提取、降維技術(shù)和數(shù)據(jù)可視化,發(fā)現(xiàn)與主題無(wú)關(guān)的文檔,刪除它們;
- 通過(guò)使用相似性度量刪除冗余文檔
如何通過(guò)添加元數(shù)據(jù) 提升RAG 效果
將元數(shù)據(jù)與索引向量結(jié)合使用有助于更好地構(gòu)建它們,同時(shí)提高搜索相關(guān)性。
以下是一些元數(shù)據(jù)有用的情景:
- 如果你搜索的項(xiàng)目中,時(shí)間是一個(gè)維度,你可以根據(jù)日期元數(shù)據(jù)進(jìn)行排序
- 如果你搜索科學(xué)論文,并且你事先知道你要找的信息總是位于特定部分,比如實(shí)驗(yàn)部分,你可以將文章部分添加為每個(gè)塊的元數(shù)據(jù)并對(duì)其進(jìn)行過(guò)濾僅匹配實(shí)驗(yàn)
元數(shù)據(jù)很有用,因?yàn)樗谙蛄克阉髦显黾恿艘粚咏Y(jié)構(gòu)化搜索。
如何通過(guò) 輸入查詢與文檔對(duì)齊 提升 RAG 效果
LLMs 和 RAGs 之所以強(qiáng)大,因?yàn)樗鼈兛梢造`活地用自然語(yǔ)言表達(dá)查詢,從而降低數(shù)據(jù)探索和更復(fù)雜任務(wù)的進(jìn)入
門檻。然而,有時(shí),用戶用幾個(gè)詞或短句的形式作為輸入查詢,查詢結(jié)果會(huì)出現(xiàn)與文檔之間存在不一致的情況。通過(guò)一個(gè)例子來(lái)理解這一點(diǎn)。這是關(guān)于馬達(dá)引擎的段落(來(lái)源:ChatGPT):
發(fā)動(dòng)機(jī)堪稱工程奇跡,以其復(fù)雜的設(shè)計(jì)和機(jī)械性能驅(qū)動(dòng)著無(wú)數(shù)的車輛和機(jī)械。其核心是,發(fā)動(dòng)機(jī)通過(guò)一系列精確協(xié)調(diào)的燃燒事件將燃料轉(zhuǎn)化為機(jī)械能。這個(gè)過(guò)程涉及活塞、曲軸和復(fù)雜的閥門網(wǎng)絡(luò)的同步運(yùn)動(dòng),所有這些都經(jīng)過(guò)仔細(xì)校準(zhǔn),以優(yōu)化效率和功率輸出。現(xiàn)代發(fā)動(dòng)機(jī)有多種類型,例如內(nèi)燃機(jī)和電動(dòng)機(jī),每種都有其獨(dú)特的優(yōu)點(diǎn)和應(yīng)用。對(duì)創(chuàng)新的不懈追求不斷增強(qiáng)汽車發(fā)動(dòng)機(jī)技術(shù),突破性能、燃油效率和環(huán)境可持續(xù)性的界限。無(wú)論是在開闊的道路上為汽車提供動(dòng)力還是驅(qū)動(dòng)工業(yè)機(jī)械,電機(jī)仍然是現(xiàn)代世界動(dòng)態(tài)運(yùn)動(dòng)的驅(qū)動(dòng)力。
在這個(gè)例子中,我們制定一個(gè)簡(jiǎn)單的查詢,“你能簡(jiǎn)要介紹一下馬達(dá)引擎的工作原理嗎?”,與段落的余弦相似性
為 0.72。其實(shí)已經(jīng)不錯(cuò)了,但還能做得更好嗎?
為了做到這一點(diǎn),我們將不再通過(guò)段落的嵌入來(lái)索引該段落,而是通過(guò)其回答的問題的嵌入來(lái)索引該段落??紤]這三個(gè)問題,段落分別回答了這些問題:
- 發(fā)動(dòng)機(jī)的基本功能是什么?
- 發(fā)動(dòng)機(jī)如何將燃料轉(zhuǎn)化為機(jī)械能?
- 發(fā)動(dòng)機(jī)運(yùn)行涉及哪些關(guān)鍵部件,它們?nèi)绾翁岣甙l(fā)動(dòng)機(jī)的效率?
通過(guò)計(jì)算得出,它們與輸入查詢的相似性分別為:
- 0.864
- 0.841
- 0.845
這些值更高,表明輸入查詢與問題匹配得更精確。將塊與它們回答的問題一起索引,有助于解決對(duì)齊問題并提高搜索相關(guān)性:我們不是優(yōu)化與文檔的相似性,而是優(yōu)化與底層問題的相似性。
如何通過(guò) 提示壓縮 提升 RAG 效果
研究表明,在檢索上下文中的噪聲會(huì)對(duì)RAG性能產(chǎn)生不利影響,更精確地說(shuō),對(duì)由 LLM 生成的答案產(chǎn)生不利影
響。一些方案建議在檢索后再應(yīng)用一個(gè)后處理步驟,以壓縮無(wú)關(guān)上下文,突出重要段落,并減少總體上下文長(zhǎng)度。
選擇性上下文等方法和 LLMLingua 使用小型LLM來(lái)計(jì)算即時(shí)互信息或困惑度,從而估計(jì)元素重要性。
RAG 未來(lái)發(fā)展方向
RAG 的三大未來(lái)發(fā)展方向:垂直優(yōu)化、橫向擴(kuò)展以及 RAG 生態(tài)系統(tǒng)的構(gòu)建。
Rag 的垂直優(yōu)化
盡管 RAG 技術(shù)在過(guò)去一年里取得了顯著進(jìn)展,但其垂直領(lǐng)域仍有幾個(gè)重點(diǎn)問題有待深入探究:
- RAG 中長(zhǎng)上下文的處理問題
- RAG 的魯棒性研究
- RAG 與微調(diào)(Fine-tuning)的協(xié)同作用
- RAG 的工程應(yīng)用
在工程實(shí)踐中,諸如如何在大規(guī)模知識(shí)庫(kù)場(chǎng)景中提高檢索效率和文檔召回率,以及如何保障企業(yè)數(shù)據(jù)安全——例
如防止 LLM 被誘導(dǎo)泄露文檔的來(lái)源、元數(shù)據(jù)或其他敏感信息——都是亟待解決的關(guān)鍵問題。
RAG 的水平擴(kuò)展
在水平領(lǐng)域,RAG 的研究也在迅速擴(kuò)展。從最初的文本問答領(lǐng)域出發(fā),RAG 的應(yīng)用逐漸拓展到更多模態(tài)數(shù)據(jù),
包括圖像、代碼、結(jié)構(gòu)化知識(shí)、音視頻等。
RAG 生態(tài)系統(tǒng)
? 下游任務(wù)與評(píng)估RAG通過(guò)集成廣泛的知識(shí)庫(kù)信息,展現(xiàn)了處理復(fù)雜查詢和生成豐富回應(yīng)的潛力。在開放式問題解答、事實(shí)驗(yàn)證等任務(wù)中,RAG表現(xiàn)出色。其應(yīng)用不僅提升了信息準(zhǔn)確性和相關(guān)性,還增強(qiáng)了回應(yīng)的多樣性和深度。特別在醫(yī)學(xué)、法律和教育等專業(yè)領(lǐng)域,RAG能夠以較低訓(xùn)練成本和優(yōu)秀性能突顯其價(jià)值。完善RAG評(píng)估體系,發(fā)展更精確的評(píng)估指標(biāo)如上下文相關(guān)性、內(nèi)容創(chuàng)新性等,以及提高模型可解釋性,都是未來(lái)工作重點(diǎn)。
? 技術(shù)棧在RAG的技術(shù)生態(tài)中,相關(guān)技術(shù)棧的發(fā)展起著關(guān)鍵作用。ChatGPT的流行帶動(dòng)了LangChain和LLamaIndex等技術(shù)的發(fā)展,它們提供了豐富的RAG相關(guān)API,成為大模型時(shí)代的核心技術(shù)。同時(shí),也有新興技術(shù)棧涌現(xiàn),如Flowise AI6專注于低代碼操作,使用戶可以簡(jiǎn)單地操控RAG各類AI應(yīng)用。如HayStack、Meltno和Cohere Coral這樣的新興技術(shù)也在不斷進(jìn)步。隨著技術(shù)棧的發(fā)展與優(yōu)化,RAG技術(shù)也得到了推動(dòng)。目前,RAG工具鏈的技術(shù)棧已初步建立,許多企業(yè)級(jí)應(yīng)用紛紛涌現(xiàn),但一個(gè)全面的整合平臺(tái)還在完善中。
本文轉(zhuǎn)載自公眾號(hào)AI 博物院 作者:longyunfeigu
