從裁員到年薪百萬(wàn):程序員靠RAG技術(shù)逆襲的“核心密碼”
1.前言
作為一名從業(yè)七年的程序員,最近聽到很多程序員朋友都喜提了n+1裁員大禮包。上周與老友聚會(huì)時(shí),大家紛紛訴說(shuō)著各自最近的遭遇,聚會(huì)氣氛一度十分沉重。老Z感嘆:“公司決定將部分業(yè)務(wù)外包,結(jié)果我被列入了裁員名單。”老L則無(wú)奈道:“市場(chǎng)競(jìng)爭(zhēng)激烈,項(xiàng)目減少,團(tuán)隊(duì)預(yù)算被削減,前幾天我也被裁掉了?!本蹠?huì)回家后我十分焦慮地打開了招聘軟件,發(fā)現(xiàn)傳統(tǒng)程序員的崗位出現(xiàn)了僧多肉少的情況,hr每天回復(fù)幾十次的都有,關(guān)鍵薪資待遇并不是很理想。我出于好奇心搜了一下AI相關(guān)崗位,發(fā)現(xiàn)今年AI崗位出了很多,關(guān)鍵在于投遞的人少了很多但是薪資翻了多倍...
在AI技術(shù)飛速發(fā)展的今天,我意識(shí)到程序員轉(zhuǎn)型為AI工程師似乎是一個(gè)不錯(cuò)的選擇。然而,這一轉(zhuǎn)型并非易事,既需要扎實(shí)的編程基礎(chǔ),又需深入理解各種AI模型和技術(shù)。其中,檢索增強(qiáng)生成(RAG)技術(shù)作為大模型落地的關(guān)鍵技術(shù),通過(guò)將大型語(yǔ)言模型與外部知識(shí)庫(kù)相結(jié)合,顯著提升了生成式AI的準(zhǔn)確性和時(shí)效性。掌握RAG技術(shù),不僅能增強(qiáng)AI系統(tǒng)的響應(yīng)能力,還能有效解決傳統(tǒng)語(yǔ)言模型在處理特定領(lǐng)域知識(shí)時(shí)的局限性。學(xué)習(xí)并掌握RAG技術(shù),對(duì)于希望在AI領(lǐng)域發(fā)展的程序員而言,具有重要意義。
本文我們將從RAG相關(guān)原理入手,介紹如何基于RAGFlow本地部署DeepSpeek-R1大模型以及搭建知識(shí)庫(kù),如果感興趣就往下約閱讀吧~
2. RAG相關(guān)概念講解(對(duì)概念不感興趣就跳過(guò))
2.1. 什么是Embedding
Embedding(嵌入)是把信息(比如單詞、句子、文檔)轉(zhuǎn)化為計(jì)算機(jī)能夠理解的數(shù)字形式。我們把這種轉(zhuǎn)化得到的數(shù)字向量稱為“Embedding向量”。這種做法在很多AI應(yīng)用中都很常見,尤其是在處理文本時(shí)。想象一下,你和朋友在討論《紅樓夢(mèng)》中的人物時(shí),可能會(huì)提到“林黛玉”和“賈寶玉”這兩個(gè)角色。在你們的談話中,這些名字不僅僅是字面上的稱呼,它們還承載著豐富的情感和故事背景。同樣地,計(jì)算機(jī)也需要一種方式來(lái)理解這些詞語(yǔ)背后的深層含義。Embedding(嵌入)就是一種將詞語(yǔ)、句子或文檔轉(zhuǎn)化為計(jì)算機(jī)可以理解的數(shù)字形式的方法。通過(guò)這種方式,計(jì)算機(jī)能夠“感知”詞語(yǔ)之間的關(guān)系和相似性。
舉個(gè)例子:
假設(shè)我們將“林黛玉”和“賈寶玉”這兩個(gè)角色轉(zhuǎn)化為一組數(shù)字,例如:
- ? 林黛玉:[0.2, 0.8, -0.5, ...]
- ? 賈寶玉:[0.3, 0.7, -0.4, ...]
這些數(shù)字背后的含義可能是:
- ? 第一個(gè)數(shù)字:代表角色的文學(xué)地位。
- ? 第二個(gè)數(shù)字:代表角色的性格特征。
- ? 第三個(gè)數(shù)字:代表角色的情感經(jīng)歷。
由于“林黛玉”和“賈寶玉”在故事中有著深厚的關(guān)系和相似的性格特征,所以它們的數(shù)字表示在計(jì)算機(jī)的“心目”中會(huì)比較接近。這種接近性幫助計(jì)算機(jī)理解它們?cè)谡Z(yǔ)義上的相似性:
2.2 Embedding 模型精選與對(duì)比
為幫助讀者快速選擇適合 RAG 系統(tǒng)的嵌入模型,本文結(jié)合最新行業(yè)評(píng)測(cè)(截至2025年3月)整理出以下主流模型及其特性:
模型名稱 | 開發(fā)團(tuán)隊(duì) | 核心特點(diǎn) | 適用場(chǎng)景 | 性能指標(biāo)(MTEB/MIRACL) |
BGE-M3 | 智源研究院 | 支持100+語(yǔ)言,集成稠密/稀疏/多向量混合檢索,8192 tokens長(zhǎng)文本處理能力 | 企業(yè)級(jí)多語(yǔ)言知識(shí)庫(kù)、復(fù)雜格式文檔檢索(表格/圖表解析) | MIRACL平均召回率89.2% |
Gemini Embedding | Google AI | 基于動(dòng)態(tài)稀疏注意力機(jī)制,支持8K上下文,Matryoshka降維技術(shù)減少83%存儲(chǔ)需求 | 多模態(tài)檢索、金融/法律領(lǐng)域長(zhǎng)文檔分析、跨語(yǔ)言知識(shí)庫(kù) | MMTEB多語(yǔ)言Borda分?jǐn)?shù)最高 |
mxbai-embed-large | Mixed Bread AI | 1024維高精度向量,短文本優(yōu)化,模型體積僅為OpenAI text-embedding-3-large的60% | 中小團(tuán)隊(duì)快速部署、實(shí)時(shí)語(yǔ)義搜索(電商/客服場(chǎng)景) | MTEB平均得分72.1 |
nomic-embed-text | Nomic AI | 768維平衡設(shè)計(jì),短文本相似度計(jì)算效率領(lǐng)先,支持動(dòng)態(tài)分塊策略 | 社交媒體內(nèi)容分析、競(jìng)品監(jiān)控、短問答系統(tǒng) | 短文本檢索F1值78.5% |
Jina Embedding | Jina AI | 基于3.8億高質(zhì)量句對(duì)訓(xùn)練,35M參數(shù)量推理速度極快 | 移動(dòng)端輕量化應(yīng)用、邊緣計(jì)算場(chǎng)景(如物聯(lián)網(wǎng)設(shè)備日志分析) | 推理速度比同類快3倍 |
GTE | 阿里巴巴達(dá)摩院 | 基于BERT框架優(yōu)化,直接處理代碼無(wú)需微調(diào),適配技術(shù)文檔檢索 | 開發(fā)者文檔檢索(如API手冊(cè)查詢)、編程問答社區(qū) | 代碼檢索準(zhǔn)確率92.7% |
模型選擇建議
- 企業(yè)級(jí)復(fù)雜場(chǎng)景:優(yōu)先選擇 BGE-M3 或 Gemini Embedding,兩者在混合檢索、長(zhǎng)文本處理和多語(yǔ)言支持上表現(xiàn)突出;
- 輕量化部署需求:mxbai-embed-large(高精度)和 nomic-embed-text(高效率)是性價(jià)比之選;
- 技術(shù)文檔與代碼場(chǎng)景:GTE 的代碼原生支持特性可減少30%的誤召回率;
- 移動(dòng)/邊緣計(jì)算:Jina Embedding 憑借35M參數(shù)量和高效推理架構(gòu),適合資源受限環(huán)境。
注:以上數(shù)據(jù)參考自MTEB 2025官方榜單及企業(yè)實(shí)測(cè)報(bào)告,完整評(píng)測(cè)方法可訪問 HuggingFace MTEB Leaderboard。
2.3. RAG工作流程
檢索增強(qiáng)生成(Retrieval-Augmented Generation,簡(jiǎn)稱RAG)是一種將信息檢索技術(shù)與生成模型結(jié)合的方法,主要用來(lái)提升大型語(yǔ)言模型在處理知識(shí)密集型任務(wù)時(shí)的表現(xiàn)。RAG的工作流程可以分為四個(gè)主要步驟,簡(jiǎn)單來(lái)說(shuō)就是:檢索、增強(qiáng)、生成。
- 數(shù)據(jù)索引(Indexing) :
- 數(shù)據(jù)預(yù)處理:首先,我們需要對(duì)原始數(shù)據(jù)進(jìn)行清洗和規(guī)范化處理。這樣可以確保數(shù)據(jù)的質(zhì)量,去掉那些無(wú)關(guān)或干擾的信息。
- 向量化處理:接下來(lái),我們使用一些嵌入模型將這些數(shù)據(jù)轉(zhuǎn)換成向量形式。向量化的目的是把數(shù)據(jù)中的語(yǔ)義信息提取出來(lái),以便后續(xù)處理。
- 建立索引:最后,將這些向量化的數(shù)據(jù)存儲(chǔ)到向量數(shù)據(jù)庫(kù)中,并為它們建立索引。這樣,系統(tǒng)就能快速檢索到相關(guān)數(shù)據(jù)。
- 檢索(Retrieval) :
- 查詢處理:當(dāng)用戶提交問題時(shí),系統(tǒng)會(huì)先將用戶的查詢轉(zhuǎn)化成向量表示。
- 相似度計(jì)算:然后,系統(tǒng)會(huì)計(jì)算查詢向量和數(shù)據(jù)庫(kù)中所有數(shù)據(jù)向量之間的相似度。通常,余弦相似度是常用的計(jì)算方法。
- 檢索相關(guān)數(shù)據(jù):根據(jù)計(jì)算出的相似度,系統(tǒng)會(huì)從數(shù)據(jù)庫(kù)中提取出最相關(guān)的數(shù)據(jù)片段。
- 增強(qiáng)(Augmentation) :
- 構(gòu)建增強(qiáng)提示:此時(shí),系統(tǒng)將用戶的查詢與檢索到的相關(guān)數(shù)據(jù)結(jié)合,構(gòu)建一個(gè)增強(qiáng)的提示(prompt)。這個(gè)提示將提供給生成模型,確保它能夠利用最新、最相關(guān)的信息來(lái)生成回答。
- 生成(Generation) :
- 生成響應(yīng):生成模型會(huì)根據(jù)這個(gè)增強(qiáng)的提示,生成最終的響應(yīng)。由于它結(jié)合了最新的知識(shí)和數(shù)據(jù),因此生成的回答會(huì)更加準(zhǔn)確和相關(guān)。
2.4. 如何構(gòu)建高效的RAG系統(tǒng)?
要打造一個(gè)高效的RAG系統(tǒng),主要優(yōu)化的點(diǎn)在于構(gòu)建數(shù)據(jù)索引這一步,以下幾個(gè)關(guān)鍵步驟非常重要:
- 數(shù)據(jù)預(yù)處理的重要性:在RAG系統(tǒng)中,數(shù)據(jù)預(yù)處理至關(guān)重要。包括數(shù)據(jù)清洗和規(guī)范化處理,能有效提升檢索效果。如果數(shù)據(jù)沒有經(jīng)過(guò)清理,就可能包含很多噪聲或冗余信息,這會(huì)影響檢索器的表現(xiàn),從而影響生成模型的輸出質(zhì)量。
- 數(shù)據(jù)分塊策略:當(dāng)處理長(zhǎng)文檔時(shí),拆分成合適大小的塊會(huì)更有幫助。這不僅能提高檢索效率,還能提高準(zhǔn)確性。當(dāng)然,塊的大小需要根據(jù)具體情況進(jìn)行調(diào)整,找到一個(gè)平衡點(diǎn),既保證信息的完整性,又確保處理的高效。
- 嵌入模型的選擇:嵌入模型將文本轉(zhuǎn)換為向量,這個(gè)過(guò)程直接影響檢索效果。選擇一個(gè)與應(yīng)用領(lǐng)域匹配的嵌入模型,并對(duì)其進(jìn)行微調(diào),可以大大提升檢索的相關(guān)性和準(zhǔn)確性。
除去以上步驟,設(shè)計(jì)有效的提示詞,引導(dǎo)模型生成準(zhǔn)確的回答;通過(guò)調(diào)整解碼器的溫度等參數(shù),控制輸出的多樣性和質(zhì)量;對(duì)生成器進(jìn)行微調(diào),使其更好地適應(yīng)特定任務(wù)等手段也可以提升RAG的回答效果。
2.5. RAG框架簡(jiǎn)介
在我之前的文章里也寫過(guò)RAG框架,為了方便大家理解和比較RAG框架,我做了一個(gè)表格匯總(下表的AnythingLLM框架對(duì)應(yīng)文章為: https://blog.csdn.net/c18213590220/article/details/145965374?spm=1001.2014.3001.5502)
框架名稱 | 類別 | 核心特點(diǎn) | 適用場(chǎng)景 |
LangChain | 傳統(tǒng) RAG 框架 | 模塊化設(shè)計(jì),支持文檔加載、文本拆分、嵌入、檢索全流程 | 靈活構(gòu)建復(fù)雜 LLM 應(yīng)用(如問答系統(tǒng)、智能體開發(fā)) |
Haystack | 傳統(tǒng) RAG 框架 | 端到端解決方案,支持多語(yǔ)言模型與文檔存儲(chǔ)集成,模塊化架構(gòu) | 企業(yè)級(jí)搜索增強(qiáng)系統(tǒng)、多語(yǔ)言知識(shí)庫(kù)應(yīng)用 |
RAGFlow | 企業(yè)級(jí) RAG 框架 | 深度文檔理解(OCR/TSR支持),混合檢索(向量+搜索引擎+結(jié)構(gòu)化查詢) | 處理復(fù)雜格式文檔的企業(yè)知識(shí)庫(kù)(表格、圖表解析) |
VARAG | 多模態(tài) RAG 框架 | 整合圖像理解能力,基于 LangChain 構(gòu)建,API 接口友好 | 圖文混合內(nèi)容處理(教育、研究場(chǎng)景)、初創(chuàng)項(xiàng)目原型 |
R2R | 檢索優(yōu)化框架 | 迭代式檢索優(yōu)化,支持多步驟檢索過(guò)程與性能分析工具 | 需要高精度檢索的學(xué)術(shù)研究、復(fù)雜查詢場(chǎng)景 |
FlashRAG | 高效檢索框架 | 分布式處理優(yōu)化,支持百億級(jí)數(shù)據(jù)檢索,內(nèi)置性能分析工具 | 高并發(fā)、大規(guī)模數(shù)據(jù)場(chǎng)景(如實(shí)時(shí)語(yǔ)義搜索) |
AnythingLLM | 私有化部署框架 | MIT協(xié)議支持二次開發(fā),內(nèi)置企業(yè)級(jí)權(quán)限體系,兼容200+文檔格式 | 數(shù)據(jù)敏感型企業(yè)(法律、制造業(yè))私有知識(shí)庫(kù)構(gòu)建 |
Cherry Studio | 輕量級(jí)框架 | 零配置桌面端運(yùn)行,集成30+開源模型,支持離線問答 | 小微團(tuán)隊(duì)快速驗(yàn)證(創(chuàng)意靈感庫(kù)、競(jìng)品分析) |
Cognita | MLOps 集成框架 | 端到端平臺(tái),內(nèi)置監(jiān)控與版本控制,支持模型實(shí)驗(yàn)跟蹤 | 需要全生命周期管理的 AI 應(yīng)用開發(fā) |
Canopy | 向量檢索優(yōu)化框架 | 基于 Pinecone 矢量數(shù)據(jù)庫(kù)技術(shù),高擴(kuò)展性檢索架構(gòu) | 需要高效矢量搜索的大規(guī)模多模態(tài)應(yīng)用 |
RAGFlow作為本文要講的RAG框架,有以下優(yōu)點(diǎn):
- 多樣化的文檔處理能力:RAGFlow支持豐富的文件格式,包括Word、PPT、Excel、PDF等,并針對(duì)特定格式提供相應(yīng)的解析模板,能夠處理復(fù)雜格式的文檔,如表格、圖像等。
- 深度文檔理解:內(nèi)置的DeepDoc組件能夠?qū)τ脩舻姆墙Y(jié)構(gòu)化文檔進(jìn)行布局檢測(cè),確保文字在保持語(yǔ)義的前提下進(jìn)行處理,提高了數(shù)據(jù)處理的準(zhǔn)確性和可靠性。
- 混合檢索機(jī)制:RAGFlow支持向量檢索、搜索引擎檢索和結(jié)構(gòu)化查詢的混合檢索方式,能夠根據(jù)不同場(chǎng)景選擇最優(yōu)的檢索策略,提升了檢索的精度和效率。
- 高可定制性和可擴(kuò)展性:RAGFlow提供了靈活的自定義能力,用戶可以根據(jù)具體需求定制評(píng)分算法、檢索策略等,適應(yīng)高負(fù)載應(yīng)用場(chǎng)景,滿足不同業(yè)務(wù)需求。
這些優(yōu)點(diǎn)使RAGFlow在處理復(fù)雜格式文檔、提供高精度檢索和滿足企業(yè)級(jí)應(yīng)用需求方面表現(xiàn)出色。
3. 基于RAGFlow本地部署DeepSpeek-R1大模型及知識(shí)庫(kù)搭建
3.1. Ollama安裝
Ollama安裝在之前的文章已經(jīng)手把手交過(guò),這里就不在贅述,文章指引:https://blog.csdn.net/c18213590220/article/details/145965374?spm=1001.2014.3001.5502
本文和之前有所不同的一點(diǎn)是需要配置一下OLLAMA_HOST:
配置 OLLAMA_HOST的ip為0.0.0.0的核心目的是突破網(wǎng)絡(luò)隔離限制,使運(yùn)行在 Docker 容器中的 RAGFlow 能夠通過(guò)宿主機(jī)網(wǎng)絡(luò)訪問 Ollama 服務(wù)。Ollama 默認(rèn)綁定在 127.0.0.1(僅限本機(jī)訪問),而 Docker 容器與宿主機(jī)屬于不同網(wǎng)絡(luò)命名空間,無(wú)法直接訪問此地址。設(shè)置為 0.0.0.0 后,Ollama 會(huì)監(jiān)聽所有網(wǎng)絡(luò)接口(包括虛擬網(wǎng)卡),使容器可通過(guò)宿主機(jī) IP 或 host.docker.internal域名訪問服務(wù)。
3.2. RAGFlow安裝
3.2.1. Docker Desktop安裝配置
安裝 WSL 2(適用于 Windows 10 版本 2004 及以上):
Windows 子系統(tǒng) Linux 2(WSL 2)提供了一個(gè)完整的 Linux 內(nèi)核,Docker Desktop 依賴于此。win+R打開命令窗口,輸入winver查看系統(tǒng)版本,確保內(nèi)部版本高于19041:
以管理員身份打開 PowerShell,運(yùn)行以下命令:
wsl --install
安裝完成后需要重啟一下計(jì)算機(jī)。
安裝DockerDesktop
安裝 Docker Desktop 之前,確保您已經(jīng)安裝并啟用了 WSL 2??梢酝ㄟ^(guò)在 PowerShell 運(yùn)行以下命令來(lái)檢查:
wsl --list --verbose
下載 Docker Desktop:訪問 Docker 官方網(wǎng)站 https://www.docker.com/products/docker-desktop 下載適用于 Windows 的 Docker Desktop 安裝包。
安裝 Docker Desktop:
- 雙擊下載的安裝文件
Docker Desktop Installer.exe
。 - 按照提示完成安裝過(guò)程。
- 安裝完成后,系統(tǒng)可能提示重啟計(jì)算機(jī),建議重啟以確保所有組件正常工作。
啟動(dòng) Docker Desktop:電腦重啟后,啟動(dòng)Docker Desktop, 初次啟動(dòng)可能需要一些時(shí)間。
配置一下docker鏡像源地址:
以下鏡像源地址為國(guó)內(nèi)地址,你不想用我的也可以自己找:
"registry-mirrors":["https://hub.rat.dev"]
3.2.2. RAGFlow安裝
RAGFlow的安裝我建議可以直接去github(https://github.com/infiniflow/RAGFlow)上看README_zh.md,教程已經(jīng)很詳盡,當(dāng)然你嫌麻煩也可以直接看我的,首先基于git拉取RAGFlow項(xiàng)目:
git clone https://github.com/infiniflow/RAGFlow.git
進(jìn)入RAGFlow/docker文件夾輸入cmd打開命令提示符窗口:
如需下載不同于 v0.17.2-slim
的 Docker 鏡像,請(qǐng)?jiān)谶\(yùn)行 docker compose
啟動(dòng)服務(wù)之前先更新 docker/.env 文件內(nèi)的 RAGFlow_IMAGE
變量。比如,你可以通過(guò)設(shè)置 RAGFlow_IMAGE=infiniflow/RAGFlow:v0.17.2
來(lái)下載 RAGFlow 鏡像的 v0.17.2
完整發(fā)行版。這里的版本是我自己的版本,你的版本需要打開.env軟件自己確認(rèn)。
運(yùn)行命令:docker compose -f docker-compose.yml up -d安裝RAGFlow,安裝完以后可以使用docker ps看一下容器列表,找到RAGFlow容器id,使用docker logs -f (容器id)查看容器運(yùn)行情況:
在瀏覽器輸入localhost,能看到以下界面則表明RAGFlow安裝成功了:
注冊(cè)賬號(hào)后就能登錄至首頁(yè):
點(diǎn)擊頭像后,在側(cè)邊導(dǎo)航欄選擇模型提供商,選擇Ollama:
配置chat模型,模型名稱使用ollama list命令獲?。╳in+R打開命令提示符窗口輸入ollama list):
基礎(chǔ)uri處配置為http://你的ip:11434:
配置embedding模型,基礎(chǔ)uri處配置為http://你的ip:11434:
點(diǎn)擊系統(tǒng)模型設(shè)置設(shè)置相應(yīng)模型:
3.2.3. 知識(shí)庫(kù)搭建
新增知識(shí)庫(kù),我這里為了示范新增了一個(gè)小肥腸咖啡廳員工管理規(guī)范的知識(shí)庫(kù),配置知識(shí)庫(kù):
在RAGFlow中 提供了兩種主要的文檔解析器:
- Naive解析器:該解析器在處理文檔時(shí),不僅提取文本內(nèi)容,還將表格數(shù)據(jù)轉(zhuǎn)換為HTML格式。然而,在解析復(fù)雜表格時(shí),可能會(huì)出現(xiàn)錯(cuò)行或格式偏差的問題。
- DeepDoc解析器:這是RAGFlow的核心組件,利用視覺處理和解析技術(shù),對(duì)文檔進(jìn)行深度理解。它支持OCR(光學(xué)字符識(shí)別)、布局識(shí)別和表格結(jié)構(gòu)識(shí)別(TSR),能夠處理多種文檔格式,如PDF、DOCX、Excel和PPT,并提取文本塊、表格和圖像等信息。
總的來(lái)說(shuō),Naive解析器適用于對(duì)解析速度要求較高且文檔格式較簡(jiǎn)單的場(chǎng)景,而DeepDoc解析器則更適合處理復(fù)雜布局和多種格式的文檔,提供更精確的解析結(jié)果。
接下來(lái)就是準(zhǔn)備知識(shí)庫(kù)的數(shù)據(jù)集,數(shù)據(jù)集越規(guī)范查詢效果越好,這里是我造假的一個(gè)數(shù)據(jù)(pdf):
上傳文件:
實(shí)時(shí)查看解析進(jìn)度:
解析以后點(diǎn)擊數(shù)據(jù)集可以查看解析塊:
配置完知識(shí)庫(kù)之后新建聊天助理測(cè)試一下效果:
開始聊天,從下圖中可以看出聊天小助理已經(jīng)能夠很好地提取知識(shí)庫(kù)的內(nèi)容進(jìn)行回答了:
4. 資料獲取
如果你對(duì)DeepSpeek的相關(guān)知識(shí)還不熟悉,可以關(guān)注公眾號(hào)后端小肥腸,點(diǎn)擊底部【資源】菜單獲取DeepSpeek相關(guān)教程資料。
5. 結(jié)語(yǔ)
本文帶領(lǐng)讀者深入了解了RAG(檢索增強(qiáng)生成)技術(shù)相關(guān)的基本原理,基于保姆級(jí)教程一步一步講解了怎么基于RAGFlow本地部署DeepSpeek-R1大模型與知識(shí)庫(kù)的搭建。隨著AI技術(shù)的發(fā)展,RAG技術(shù)將成為程序員轉(zhuǎn)型為AI工程師的重要工具。掌握RAG技術(shù)不僅能幫助開發(fā)更高效的知識(shí)庫(kù)系統(tǒng),還能提升模型的準(zhǔn)確性和響應(yīng)能力,為處理知識(shí)密集型任務(wù)提供強(qiáng)有力的支持。