用本地文件調(diào)教 DeepSeek
在當(dāng)今數(shù)字化的時代,信息和知識如同浩瀚的海洋,而我們每個人都要在其中尋找屬于自己的寶藏。
想象一下,作為一名醫(yī)生,你手中握有海量的科研資料,它們?nèi)缤蛔R的孤島,等待著被探索和整合。如果能夠擁有一位專屬的“知識機(jī)器人”,它不僅能夠?qū)W習(xí)并吸收你所有的資料,還能在你需要時,迅速為你提供精準(zhǔn)的答案,這將是多么令人向往的事情??!
你無需再耗費(fèi)大量時間在繁瑣的資料檢索中,只需簡單地向它提問,答案便如自來水般涌現(xiàn)。這,便是本地部署與知識庫結(jié)合的神奇之處。它不僅僅是一個技術(shù)的應(yīng)用,更是一種對個人智慧的賦能。
而這一切,正是 DeepSeek 等大模型所賦予我們的獨(dú)特價值。它陽光普照,讓知識的邊界得以無限拓展,讓智慧的光芒得以更加令人唾手可得。
牛刀小試
首先,我們編寫一個簡單的 markdown 文件,內(nèi)容如下:
三角形分類
- 黃金三角形就是三個角的大小比例為 1:2:3 的三角形。
- 白銀三角形就是三個角的大小比例為 2:3:4 的三角形。
- 青銅三角形就是三個角的大小比例為 1:1:4 的三角形。
- 爛鐵三角形就是三個角的大小的比例為 1:3:8 的三角形。
取個名字,比如 知識荒漠.md,當(dāng)然把它導(dǎo)出為 pdf 格式也是可以的。當(dāng)然,一般來說你會有很多這類文件。然后,把它們導(dǎo)入到本地知識庫,后面會講具體如何操作。
這里提一下,黃金三角形和白銀三角形本身是有這樣的定義,但我們這里隨便下點(diǎn)定義,為了看看 DeepSeek 作何反應(yīng)。而后面兩個是沒有的,完全是我們杜撰的,可以理解為要喂給大模型的新知識。
好了,開始調(diào)戲本地的 DeepSeek。
比如問它:請解釋下青銅三角形。
由于實(shí)際中并沒有這個定義,所以它只能從我們本地知識庫中獲得這個知識,加上它自己的推理,構(gòu)建了具體的概念并總結(jié)了一些性質(zhì),雖然它有些謹(jǐn)慎。
再問它:請解釋下黃金三角形。
由于實(shí)際中有這個定義,但是它又看到了本地知識庫中的這個概念,顯然它們不一致,所以 DeepSeek 有些糾結(jié),但會結(jié)合它自己的推理來決定最終怎么解釋。
可見 DeepSeek 還是很聰慧的,不會輕易被外部知識誤導(dǎo)。
另外,如果你嫌 AI 大模型翻譯得不到位,是不是可以給它喂一些本地知識調(diào)教它呢!
大致原理
DeepSeek 讀取本地知識庫主要是通過檢索增強(qiáng)生成(Retrieval-Augmented Generation,RAG)技術(shù)實(shí)現(xiàn)的。以下是具體實(shí)現(xiàn)過程:
- 向量嵌入模型:需要一個嵌入模型(如nomic-embed-text? 或BAAI/bge-m3)將本地知識庫中的文本內(nèi)容轉(zhuǎn)換為向量形式。這些向量會被存儲到向量數(shù)據(jù)庫(如 LanceDB)中。
- 知識庫的創(chuàng)建與配置:在本地部署 DeepSeek 的基礎(chǔ)上,通過相關(guān)工具(如Cherry Studio)配置嵌入模型和向量數(shù)據(jù)庫。創(chuàng)建知識庫時,選擇已配置的嵌入模型,上傳本地文件進(jìn)行向量化處理。
- RAG 技術(shù):當(dāng)用戶提問時,RAG 技術(shù)會利用向量數(shù)據(jù)庫中的向量數(shù)據(jù),通過檢索找到與問題最相關(guān)的知識庫內(nèi)容。DeepSeek 會結(jié)合檢索到的知識庫內(nèi)容生成回答。
- 模型與工具:DeepSeek R1 等模型通過 API 配置到各種工具中(如Cherry Studio),以實(shí)現(xiàn)對本地知識庫的讀取和處理。通過上述技術(shù),DeepSeek 能夠高效地讀取和利用本地知識庫,為用戶提供精準(zhǔn)的回答。
可能你會想這與直接以附件形式上傳給大模型有什么區(qū)別?這個留給大家自己琢磨吧。好了,原理大致了解了,讓我們動手吧。
本地部署
一、安裝 Ollama
- 訪問 Ollama 官網(wǎng):前往 Ollama 官網(wǎng),點(diǎn)擊 Download 按鈕。
- 下載安裝包:根據(jù)你的操作系統(tǒng)選擇對應(yīng)的安裝包。下載完成后,直接雙擊安裝文件并按照提示完成安裝。
- 驗(yàn)證安裝:安裝完成后,在終端輸入以下命令,檢查 Ollama 版本:
ollama --version
如果輸出版本號(例如 ollama version is 0.2.8),則說明安裝成功。
?二、下載并部署 DeepSeek 模型
- 選擇模型版本:
入門級:1.5B 版本,適合初步測試。
中端:7B 或 8B 版本,適合大多數(shù)消費(fèi)級 GPU。
高性能:14B、32B 或 70B 版本,適合高端 GPU。
- 下載模型:打開終端,輸入以下命令下載并運(yùn)行 DeepSeek 模型。例如,下載 8B 版本的命令為:
ollama run deepseek-r1:8b
如果需要下載其他版本,可以參考以下命令:
ollama run deepseek-r1:7b # 7B 版本
ollama run deepseek-r1:14b # 14B 版本
ollama run deepseek-r1:32b # 32B 版本
- 啟動 Ollama 服務(wù):在終端運(yùn)行以下命令啟動 Ollama 服務(wù):
ollama serve
服務(wù)啟動后,可以通過訪問 http://localhost:11434 來與模型進(jìn)行交互。
三、安裝并配置 Cherry Studio
- 下載 Cherry Studio:
- 訪問 Cherry Studio 官網(wǎng),選擇適配你操作系統(tǒng)的版本進(jìn)行下載安裝。
- 配置模型服務(wù):
- 打開 Cherry Studio,進(jìn)入 “模型服務(wù)” 設(shè)置。
- 添加 Ollama 作為模型服務(wù)提供商,輸入 Ollama 服務(wù)的地址(默認(rèn)為 http://localhost:11434)。
- 添加 DeepSeek 模型:
- 在 Cherry Studio 中,點(diǎn)擊 “管理” 按鈕,選擇 “添加模型”。
- 輸入模型名稱 deepseek-r1:8b? 或其他版本,點(diǎn)擊 “添加”。
- 測試連通性,點(diǎn)擊 “檢查” 按鈕,看到綠色對勾表示測試通過。
本地知識庫
一、搭建本地知識庫
- 下載嵌入模型:我們下載 BGE-M3,它是由 BAAI(北京智源人工智能研究院)發(fā)布的多語言長文本向量檢索模型。BGE-M3 支持超過 100 種語言,訓(xùn)練數(shù)據(jù)覆蓋了 170 多種語言。
通過如下命令下載這個嵌入模型。
ollama pull bge-m3
- 添加嵌入模型:
- 點(diǎn)擊 “管理” 按鈕,選擇 “嵌入”,添加嵌入模型(如 bge-m3),用于文檔拆分和理解。
- 點(diǎn)擊 “確認(rèn)” 后,嵌入模型將被添加到系統(tǒng)中。
- 添加本地知識庫:
- 點(diǎn)擊左側(cè)的 “知識庫” 按鈕,選擇并添加本地文檔。
- 填寫知識庫名稱,選擇嵌入模型。
- 上傳本地文件(支持文件、目錄、網(wǎng)址、筆記等),例如你要學(xué)習(xí)的一堆文獻(xiàn)。
二、使用知識庫
- 選擇知識庫:
- 在 Cherry Studio 的聊天窗口中,點(diǎn)擊知識庫圖標(biāo),選中之前創(chuàng)建的知識庫。
- 例如,選擇名為 “知識荒漠” 的知識庫。
- 聊天、提問:
- 在聊天區(qū)域輸入問題,Cherry Studio 將調(diào)用 DeepSeek 模型,結(jié)合知識庫內(nèi)容生成回答。
通過上述步驟,你可以在本地成功部署 DeepSeek 模型,構(gòu)建了本地知識庫,并通過 Cherry Studio? 的可視化界面進(jìn)行交互。Cherry Studio 提供了豐富的功能,包括對話知識庫、聯(lián)網(wǎng)搜索、多模型接入等,非常適合新手快速上手。
最后,如果還想要 DeepSeek 結(jié)合搜索的話,可以使用瀏覽器插件 Page Assist。
? ?
本文轉(zhuǎn)載自???機(jī)器學(xué)習(xí)與數(shù)學(xué)???,作者:大師兄
