自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

一文讀懂大模型 RAG:檢索、增強(qiáng)與生成的技術(shù)詳解

人工智能
本文筆者將從RAG所解決的問題及模擬場景入手,詳細(xì)總結(jié)相關(guān)技術(shù)細(xì)節(jié),與大家分享。

大模型(Large Language Model,LLM)的浪潮已經(jīng)席卷了幾乎各行業(yè),但當(dāng)涉及到專業(yè)場景或行業(yè)細(xì)分領(lǐng)域時,通用大模型往往面臨專業(yè)知識不足的問題。相對于成本昂貴的“Post-Training”或“Supervised Fine-Tuning”(監(jiān)督微調(diào),SFT),基于RAG的技術(shù)方案成為了一種更優(yōu)選擇。

本文筆者將從RAG所解決的問題及模擬場景入手,詳細(xì)總結(jié)相關(guān)技術(shù)細(xì)節(jié),與大家分享~

一、初識:RAG所解決的問題及模擬場景

1. 大模型“幻覺”問題

在探討RAG技術(shù)的必要性之前,我們首先需要理解大模型中有名的“幻覺”問題。

所謂“幻覺”,是指大模型在試圖生成內(nèi)容或回答問題時,輸出的結(jié)果并不完全正確,甚至?xí)绣e誤,即通常所說的“一本正經(jīng)地胡說八道”。因此,「這種“幻覺”可以提現(xiàn)在對事實的錯誤陳述與編造、錯誤的復(fù)雜推理或在復(fù)雜語境下處理能力不足等。」

而產(chǎn)生這種“幻覺”的主要原因是:

  • 訓(xùn)練知識存在偏差:在訓(xùn)練大模型時輸入的海量知識可能包含錯誤、過時,甚至帶有偏見的信息。這些信息在被大模型學(xué)習(xí)后,就可能在未來的輸出中被重現(xiàn)。
  • 過度泛化地推理:大模型嘗試通過大量的語料來學(xué)習(xí)人類語言的普遍規(guī)律與模式,這可能導(dǎo)致“過度泛化”的現(xiàn)象,即把普通的模式推理用到某些特定場景,就會產(chǎn)生不準(zhǔn)確的輸出。
  • 理解存在局限性:大模型并沒有真正“理解”訓(xùn)練知識的深層含義,也不具備人類普遍的常識與經(jīng)驗,因此可能會在一些需要深入理解與復(fù)雜推理的任務(wù)中出錯。
  • 缺乏特定領(lǐng)域的知識:通用大模型雖然掌握了大量人類通用知識且具備超強(qiáng)的記憶與推理能力,但可能不是某個垂直領(lǐng)域的專家(比如醫(yī)學(xué)或者法律專家)。當(dāng)面臨一些復(fù)雜度較高的領(lǐng)域性問題或私有知識相關(guān)的問題時(比如介紹企業(yè)的某個新產(chǎn)品),它就可能會編造信息并將其輸出。

除了“幻覺”問題,大模型還可能存在知識落后、輸出難以解釋、輸出不確定等問題。

這也決定了大模型在大規(guī)模商業(yè)生產(chǎn)應(yīng)用中面臨著挑戰(zhàn):很多時候,我們不僅需要大模型具備理解力和創(chuàng)造力,還需要極高的準(zhǔn)確性。例如,在金融風(fēng)險評估、醫(yī)療診斷、法律咨詢等領(lǐng)域,任何錯誤的輸出都可能導(dǎo)致嚴(yán)重的后果。因此,解決“幻覺”問題是提升大模型實際應(yīng)用價值的關(guān)鍵。

2. RAG如何解決“幻覺”問題?

RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成)技術(shù)正是為了盡可能解決大模型在實際應(yīng)用中面臨的一些問題,特別是“幻覺”問題而誕生的。其基本思想可以簡單表述如下:

將傳統(tǒng)的生成式大模型與實時信息檢索技術(shù)相結(jié)合,為大模型補(bǔ)充來自外部的相關(guān)數(shù)據(jù)與上下文,以幫助大模型生成更豐富、更準(zhǔn)確、更可靠的內(nèi)容。這允許大模型在生成內(nèi)容時可以依賴實時與個性化的數(shù)據(jù)與知識,而不只是依賴訓(xùn)練知識。

換句話說,RAG給大模型增加了一個可以快速查找的知識外掛,使得它在面對特定問題時能夠參考最新的、權(quán)威的信息源,從而減少錯誤輸出和“幻覺”的發(fā)生。

為了更進(jìn)一步幫助我們理解RAG的概念,舉個例子。

如果把大模型比喻成一個經(jīng)過大量醫(yī)學(xué)知識與治療技能訓(xùn)練的優(yōu)秀學(xué)生,大模型響應(yīng)的過程比喻成一場醫(yī)學(xué)考試,那么這個學(xué)生在考試時仍然可能會對某些最新的治療方法并不熟悉,他可能會根據(jù)自己的記憶和推理能力編造答案(即“幻覺”),導(dǎo)致錯誤。 而RAG會從最新的醫(yī)學(xué)文獻(xiàn)中檢索相關(guān)信息,并提供給學(xué)生作為參考。這樣,學(xué)生就可以基于最新的專業(yè)知識來回答問題,避免了“幻覺”,提高了答題的準(zhǔn)確性和可靠性。

3. 模擬簡單的RAG場景

假如你需要開發(fā)一個在線的自助產(chǎn)品咨詢工具,允許客戶使用自然語言進(jìn)行交互式的產(chǎn)品問答,比如“請介紹一下您公司這款產(chǎn)品與××產(chǎn)品的不同之處”。為了讓客戶有更好的體驗,你決定使用大模型來構(gòu)造這樣的咨詢功能并將其嵌入公司的官方網(wǎng)站。如果你直接使用通用大模型,那么結(jié)果很可能如下所示。

用戶提問:

請介紹小麥公司的最新手機(jī)產(chǎn)品小麥Pro與iPhone有什么區(qū)別?

[引用]

不出意外,大模型顯然不具備貴公司的最新手機(jī)產(chǎn)品知識,因此無法回答客戶的問題(有時候可能會嘗試編造答案)?,F(xiàn)在,如果你使用RAG的思想,那么可以先從企業(yè)私有的知識庫中「檢索出下面一段相關(guān)的補(bǔ)充知識」:

小麥Pro手機(jī)參數(shù)簡覽:

  • 系統(tǒng):安卓最新版本
  • 處理器:高性能八核處理器
  • 顯示屏:6.7英寸AMOLED全面屏,2K分辨率
  • 后置攝像頭:主攝像頭6400萬像素,四攝系統(tǒng)
  • 前置攝像頭:3200萬像素,AI美顏、HDR功能
  • 內(nèi)存與存儲:最高可選12GB運行內(nèi)存,最高512GB存儲空間
  • 電池:5000mAh大容量電池,支持快速充電
  • 網(wǎng)絡(luò):支持5G網(wǎng)絡(luò),Wi-Fi6,藍(lán)牙5.2

其他特性:IP68防水防塵,面部識別和指紋識別解鎖 小麥Pro以其強(qiáng)大的性能、清晰的顯示效果、出色的攝像能力以及長久續(xù)航等特點,為用戶提供優(yōu)質(zhì)的手機(jī)體驗。

你再把檢索出的補(bǔ)充知識組裝到提示詞中,將其輸入大模型,并要求大模型基于提供的知識來回答你的問題。大模型很聰明地“吸收”了補(bǔ)充的外部知識,并結(jié)合自己已經(jīng)掌握的知識,成功推理并給出了答案:

RAG增強(qiáng)后的回答:

小麥Pro手機(jī)與iPhone12之間的主要區(qū)別可以從以下幾個方面來比較:

操作系統(tǒng):

  • 小麥Pro采用安卓最新版本作為操作系統(tǒng),而iPhone12運行的是蘋果自家的iOS操作系統(tǒng)。這意味著兩者的用戶界面、應(yīng)用生態(tài)系統(tǒng)、功能和定制性可能會有所不同。 處理器性能:
  • 小麥Pro配備了一款高性能的八核處理器,而iPhone12搭載了蘋果自家設(shè)計的A14仿生芯片。盡管具體的性能表現(xiàn)可能需要進(jìn)行實際測試來比較,但兩者都應(yīng)該能夠提供流暢的用戶體驗。 顯示屏:
  • 小麥Pro采用了6.7英寸的AMOLED全面屏,分辨率達(dá)到了2K級別,而iPhone12則配備了6.1英寸的屏幕。 其他特性:
  • 小麥Pro擁有更大的電池容量(5000mAh),支持更快的充電速度,并且具備更高的防水防塵等級(IP68)。

二、RAG基礎(chǔ)概念

1. 什么是RAG?

「RAG(Retrieval-Augmented Generation,檢索增強(qiáng)生成)」是一種結(jié)合了檢索和生成技術(shù)的自然語言處理(NLP)模型。該模型由Facebook AI提出,旨在提升生成式模型在處理開放域問答、對話生成等任務(wù)中的性能。

RAG模型通過引入外部知識庫,利用檢索模塊(Retriever)從大量文檔中提取相關(guān)信息,并將這些信息傳遞給生成模塊(Generator),從而生成更加準(zhǔn)確和有用的回答或文本。

其核心思想是通過檢索和生成的有機(jī)結(jié)合,彌補(bǔ)生成模型(如GPT-3、BERT等)在處理知識密集型任務(wù)時的不足。在傳統(tǒng)的LLM(大語言模型)應(yīng)用中,模型僅依賴訓(xùn)練時學(xué)到的知識來回答問題,這導(dǎo)致了知識更新困難、回答可能過時或不準(zhǔn)確等問題。而RAG系統(tǒng)通過在生成回答前主動檢索相關(guān)信息,將實時、準(zhǔn)確的知識作為上下文提供給模型,從而顯著提升了回答的質(zhì)量和可靠性。

RAG本質(zhì)上是一種借助“外掛”的提示工程,但絕不僅限于此。它不僅僅是簡單地將外部知識拼接到提示詞中,而是通過一系列優(yōu)化手段,確保大模型能夠更好地理解和利用這些外部知識,從而提高輸出答案的質(zhì)量。

2. RAG架構(gòu)

RAG模型的技術(shù)架構(gòu)可以分為兩個主要模塊:檢索模塊(Retriever)和生成模塊(Generator)。

  • 檢索模塊:負(fù)責(zé)從大規(guī)模的知識庫或文檔集合中,使用預(yù)訓(xùn)練的雙塔模型(dual-encoder)進(jìn)行高效的向量化檢索,快速找到與查詢最相關(guān)的若干個文檔或段落。
  • 生成模塊:根據(jù)檢索到的文檔和輸入查詢生成最終的回答或文本。并使用強(qiáng)大的生成模型(如T5、BART等)對輸入進(jìn)行處理,確保生成的內(nèi)容連貫、準(zhǔn)確且信息豐富。

3. RAG工作流程

通過結(jié)合檢索增強(qiáng)技術(shù),將用戶查詢與外部知識庫中的信息融合,利用大語言模型生成準(zhǔn)確、可靠的回答。以下是RAG的完整工作流程:

(1) 知識準(zhǔn)備

  • 收集知識文檔:從企業(yè)內(nèi)部文檔、公開數(shù)據(jù)集、專業(yè)數(shù)據(jù)庫等來源收集相關(guān)知識文檔。
  • 預(yù)處理:對文檔進(jìn)行清洗、去重、分段等操作,確保數(shù)據(jù)質(zhì)量。
  • 索引化:將處理后的文檔分割為適合檢索的單元(如段落或句子),并建立索引以便快速查找。

(2) 嵌入與索引

  • 使用嵌入模型:利用預(yù)訓(xùn)練的嵌入模型(如BERT、Sentence-BERT等)將文本轉(zhuǎn)換為高維向量表示。
  • 存儲向量:將生成的向量存儲在向量數(shù)據(jù)庫(如FAISS、Elasticsearch、Pinecone等)中,構(gòu)建高效的索引結(jié)構(gòu)。

(3) 查詢檢索

  • 用戶查詢向量化:將用戶的自然語言查詢通過嵌入模型轉(zhuǎn)換為向量表示。
  • 相似度計算:在向量數(shù)據(jù)庫中計算查詢向量與存儲向量之間的相似度(通常使用余弦相似度或歐氏距離)。
  • 檢索結(jié)果排序:根據(jù)相似度得分,選擇若干個最相關(guān)的文檔或段落作為檢索結(jié)果。

(4) 提示增強(qiáng)

組裝提示詞:將檢索到的相關(guān)文檔內(nèi)容與原始用戶查詢組合成一個新的輸入序列。

優(yōu)化提示模板:根據(jù)任務(wù)需求設(shè)計提示模板,確保生成模塊能夠充分利用檢索到的信息。例如:

用戶查詢:請介紹小麥Pro手機(jī)與iPhone的區(qū)別。 檢索結(jié)果:小麥Pro采用安卓系統(tǒng),配備高性能八核處理器,6.7英寸AMOLED屏幕,5000mAh電池。 增強(qiáng)提示:基于以下信息回答問題:“小麥Pro采用安卓系統(tǒng),配備高性能八核處理器,6.7英寸AMOLED屏幕,5000mAh電池?!?/p>

(5) 生成回答

  • 輸入增強(qiáng)提示:將增強(qiáng)提示模板輸入生成模塊(如T5、BART、GPT等)。
  • 生成文本:生成模塊根據(jù)提示模板生成最終的回答,綜合考慮檢索到的知識和自身的訓(xùn)練知識。
  • 后處理:對生成的回答進(jìn)行格式調(diào)整、語法檢查等后處理,確保輸出的質(zhì)量和一致性。
責(zé)任編輯:趙寧寧 來源: 小喵學(xué)AI
相關(guān)推薦

2024-07-08 12:44:11

2025-04-10 00:12:00

2024-06-24 14:32:33

2025-04-01 07:00:00

2025-04-29 09:15:49

AI數(shù)據(jù)模型

2025-03-10 08:00:00

RAG檢索Reranker

2022-07-26 00:00:03

語言模型人工智能

2023-10-14 17:46:17

RAG提示工程GPT-3

2024-06-24 08:05:00

人工智能AI

2024-05-28 09:24:32

2024-03-20 10:31:27

2023-11-20 14:58:30

人工智能AI Agents

2018-10-30 11:10:05

Flink數(shù)據(jù)集計算

2024-05-20 08:31:33

檢索增強(qiáng)生成LLM大型語言模型

2022-09-27 13:34:49

splice零拷貝原理

2025-03-28 08:00:00

RAG文本檢索大模型

2024-11-19 13:05:40

2023-12-27 14:03:48

2024-10-31 14:46:31

2025-04-01 09:25:09

點贊
收藏

51CTO技術(shù)棧公眾號