自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

RAG 架構(gòu)如何克服 LLM 的局限性

人工智能
雖然 RAG 是一個(gè)強(qiáng)大的模型,可以加強(qiáng) AI 環(huán)境,但 LLM 和向量數(shù)據(jù)庫(kù)領(lǐng)域的不斷進(jìn)步表明實(shí)時(shí) AI 環(huán)境仍處于起步階段:未來(lái)充滿了可能性。

檢索增強(qiáng)生成促進(jìn)了 LLM 和實(shí)時(shí) AI 環(huán)境的徹底改造,以產(chǎn)生更好、更準(zhǔn)確的搜索結(jié)果。

譯自How RAG Architecture Overcomes LLM Limitations,作者 Naren Narendran。

在本系列的第一部分中,我重點(diǎn)介紹了各個(gè)行業(yè)和地區(qū)的組織對(duì)生成式 AI 和大型語(yǔ)言模型 (LLM)的日益增長(zhǎng)的采用。公司堅(jiān)信,實(shí)時(shí) AI 應(yīng)用程序是強(qiáng)大的引擎,可以幫助他們提升數(shù)字性能、在飽和市場(chǎng)中超越競(jìng)爭(zhēng)對(duì)手、建立更牢固的客戶關(guān)系并提高利潤(rùn)率。

根據(jù)Gartner的說(shuō)法,到 2026 年,以多樣化數(shù)據(jù)和媒體格式為特色的多模態(tài) AI 模型將在 10 個(gè) AI 解決方案中占據(jù)六個(gè)。通用 LLM 的局限性,例如過(guò)時(shí)的訓(xùn)練數(shù)據(jù)、缺乏組織特定的上下文和 AI 幻覺(jué),是這些 AI 模型中高搜索準(zhǔn)確性和性能的障礙。然而,正如我在本系列的第一部分中所討論的,通過(guò)使用向量數(shù)據(jù)庫(kù),企業(yè)可以緩解這些挑戰(zhàn)并提升其 AI 應(yīng)用程序。

檢索增強(qiáng)生成 (RAG) 是一種架構(gòu)框架,利用向量數(shù)據(jù)庫(kù)來(lái)克服現(xiàn)成 LLM 的局限性。在本文中,我將引導(dǎo)你了解 RAG 的功能和優(yōu)勢(shì),以及它如何促進(jìn) LLM 和實(shí)時(shí) AI 環(huán)境的徹底改造。但是,在我討論 RAG 的優(yōu)勢(shì)之前,我將討論解決 LLM 局限性的另一種常見(jiàn)解決方案:微調(diào)。

解決 LLM 局限性的兩種方法

雖然 RAG 是克服 LLM 局限性最有效的方法之一,但它并不是唯一的解決方案。我在下面討論了這兩種方法。

微調(diào)

微調(diào)涉及采用一個(gè)預(yù)先存在的經(jīng)過(guò)預(yù)訓(xùn)練的 LLM,例如現(xiàn)成的解決方案,并對(duì)其進(jìn)行更多輪的訓(xùn)練。企業(yè)可以根據(jù)需要臨時(shí)或定期對(duì) LLM 進(jìn)行微調(diào)。

微調(diào)通常涉及較小或超特定的數(shù)據(jù)集。例如,醫(yī)療保健或教育領(lǐng)域的企業(yè)可能希望微調(diào)通用 LLM 以滿足其環(huán)境的特定需求。

雖然微調(diào)是一個(gè)強(qiáng)大的選擇,但它既耗時(shí)又耗費(fèi)資源,對(duì)于許多人來(lái)說(shuō),這是一個(gè)負(fù)擔(dān)不起的選擇。

檢索增強(qiáng)生成 (RAG)

RAG 是一種架構(gòu)框架,可幫助企業(yè)在其 LLM 和 AI 生態(tài)系統(tǒng)和流程中使用專有向量數(shù)據(jù)庫(kù)作為先導(dǎo)步驟。RAG 將這些搜索結(jié)果用作 LLM 的附加輸入,可用于塑造其答案。RAG 通過(guò)外部向量數(shù)據(jù)庫(kù)提供高度語(yǔ)境化、實(shí)時(shí)、特定于企業(yè)的企業(yè)數(shù)據(jù),從而提高了 LLM 結(jié)果的準(zhǔn)確性。

至關(guān)重要的是,RAG 允許公司在不重新訓(xùn)練其 LLM 的情況下執(zhí)行此操作。RAG 架構(gòu)使 LLM 能夠在對(duì)提示或查詢創(chuàng)建響應(yīng)之前訪問(wèn)外部數(shù)據(jù)庫(kù)。

通過(guò)繞過(guò)重新訓(xùn)練流程,RAG 為企業(yè)提供了一種經(jīng)濟(jì)且便捷的方式來(lái)增強(qiáng)其 AI 應(yīng)用程序,而不會(huì)損害搜索準(zhǔn)確性和性能。

RAG 的功能和優(yōu)勢(shì)

既然你對(duì) RAG 有了基本的了解,我想將重點(diǎn)轉(zhuǎn)移到它的主要功能和主要優(yōu)勢(shì)上。

更好的搜索質(zhì)量

增強(qiáng)的搜索質(zhì)量是企業(yè)使用 RAG 解鎖的首批優(yōu)勢(shì)之一。通用預(yù)訓(xùn)練 LLM 的搜索準(zhǔn)確性和質(zhì)量有限。為什么?因?yàn)樗鼈冎荒軋?zhí)行其初始訓(xùn)練數(shù)據(jù)集所允許的操作。隨著時(shí)間的推移,這會(huì)導(dǎo)致效率低下,并且對(duì)查詢的響應(yīng)要么錯(cuò)誤,要么不足。

使用 RAG,企業(yè)可以期待更具層次性、整體性和語(yǔ)境化的搜索。

納入專有數(shù)據(jù)

使用 RAG 的另一個(gè)好處是通過(guò)附加數(shù)據(jù)集(尤其是專有數(shù)據(jù))來(lái)豐富 LLM。RAG 模型確保了此專有數(shù)據(jù)(在外部向量數(shù)據(jù)庫(kù)中標(biāo)準(zhǔn)化為數(shù)字向量)是可訪問(wèn)和可檢索的。這使 LLM 能夠處理復(fù)雜且細(xì)微的特定于組織的查詢。例如,如果員工提出一個(gè)特定于某個(gè)項(xiàng)目、專業(yè)記錄或人事檔案的問(wèn)題,則增強(qiáng)型 RAG LLM 可以毫不費(fèi)力地檢索此信息。納入專有數(shù)據(jù)集還可以降低 LLM 引發(fā)幻覺(jué)響應(yīng)的風(fēng)險(xiǎn)。但是,企業(yè)必須建立穩(wěn)健的護(hù)欄,以維護(hù)自身及其用戶的安全性和機(jī)密性。

RAG 除了顯而易見(jiàn)的優(yōu)勢(shì)外,還有一些不太明顯但同樣強(qiáng)大的優(yōu)勢(shì)。通過(guò)提高搜索質(zhì)量并納入專有數(shù)據(jù),RAG 允許企業(yè)以多種方式利用其 LLM,并將其應(yīng)用于幾乎任何用例。它還有助于企業(yè)充分利用其內(nèi)部數(shù)據(jù)資產(chǎn),這是積極優(yōu)化數(shù)據(jù)管理生態(tài)系統(tǒng)的動(dòng)力。

展望 RAG

RAG 可以幫助生成更好、更具上下文且沒(méi)有幻覺(jué)的響應(yīng)來(lái)回答人類的問(wèn)題。借助 RAG,聊天機(jī)器人的響應(yīng)對(duì)用戶來(lái)說(shuō)更快、更準(zhǔn)確。當(dāng)然,這只是一個(gè)簡(jiǎn)單的用例。生成式 AI 和 LLM 在不同的行業(yè)和地理區(qū)域中激增。因此,使用向量數(shù)據(jù)庫(kù)優(yōu)化 AI 應(yīng)用程序的潛力也是無(wú)窮無(wú)盡的。

許多未來(lái)的場(chǎng)景和用例需要亞秒級(jí)決策、無(wú)與倫比的搜索準(zhǔn)確性和整體業(yè)務(wù)背景。向量,特別是通過(guò)相似性搜索的力量,是這些場(chǎng)景中成功的關(guān)鍵??紤]欺詐評(píng)估和產(chǎn)品推薦等用例。這些利用了相同的快速向量處理原則來(lái)增強(qiáng)相似性和上下文。這驗(yàn)證了 LLM 向量數(shù)據(jù)庫(kù)可以在各種設(shè)置中實(shí)現(xiàn)快速且相關(guān)的結(jié)果。

企業(yè)使用向量數(shù)據(jù)庫(kù)可以實(shí)現(xiàn)的目標(biāo)沒(méi)有限制。最重要的是,向量數(shù)據(jù)庫(kù)確保任何組織都不會(huì)覺(jué)得自己無(wú)法參與 AI 革命。

防止 LLM 障礙

AI 采用正在變得普遍,多模態(tài) LLM 模型正在成為常態(tài)。在此背景下,公司必須確保 LLM 的傳統(tǒng)限制不會(huì)造成重大障礙。搜索準(zhǔn)確性和性能是必須的,企業(yè)需要不斷尋找方法來(lái)提升現(xiàn)成的 LLM 并消除其挑戰(zhàn)。

雖然微調(diào)是一種潛在的解決方案,但它通常既昂貴又耗時(shí)。并非所有公司都擁有定期微調(diào)通用 LLM 所需的資源。檢索增強(qiáng)生成是一種更經(jīng)濟(jì)、更方便、更高效的方式,可以超越 LLM 限制,并幫助企業(yè)使用外部數(shù)據(jù)集增強(qiáng)其 AI 生態(tài)系統(tǒng)。

RAG 的主要優(yōu)勢(shì)包括更好的搜索質(zhì)量、包含專有數(shù)據(jù)集的能力以及 LLM 的更多樣化用例。

雖然 RAG 是一個(gè)強(qiáng)大的模型,可以加強(qiáng) AI 環(huán)境,但 LLM 和向量數(shù)據(jù)庫(kù)領(lǐng)域的不斷進(jìn)步表明實(shí)時(shí) AI 環(huán)境仍處于起步階段:未來(lái)充滿了可能性。

責(zé)任編輯:武曉燕 來(lái)源: 云云眾生s
相關(guān)推薦

2021-08-09 11:07:44

數(shù)據(jù)安全算法互聯(lián)網(wǎng)

2022-12-30 08:26:43

基線預(yù)警局限性

2018-04-26 13:41:57

深度學(xué)習(xí)人工智能機(jī)器學(xué)習(xí)

2010-08-26 10:57:35

2022-06-16 12:51:48

工業(yè)機(jī)器人機(jī)器人

2023-01-10 10:11:50

GPU計(jì)算

2009-03-26 19:44:52

NehalemIntel服務(wù)器

2021-04-20 08:31:13

Kubernetes局限性容器

2019-11-06 11:34:53

人工智能機(jī)器學(xué)習(xí)工具

2024-03-12 09:43:45

2017-10-09 19:12:52

AI深度學(xué)習(xí)局限性

2010-08-06 11:04:11

RIP路由協(xié)議

2017-07-12 10:00:22

深度學(xué)習(xí)小數(shù)據(jù)樣本深度網(wǎng)絡(luò)

2017-07-25 11:22:06

2024-11-25 17:03:17

2024-11-12 08:20:25

2014-08-20 10:20:18

2017-07-11 15:25:53

深度學(xué)習(xí)人工智能

2023-04-12 10:51:42

2010-01-12 15:04:01

VB.NET異常處理
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)