本地部署 DeepSeek:打造你的專屬 AI 推理環(huán)境,簡單明了適合新手
隨著 AI 大模型的爆發(fā),DeepSeek 作為一款備受矚目的開源大模型,吸引了眾多開發(fā)者的關(guān)注。如何在本地搭建 DeepSeek 推理環(huán)境,以便更高效地進(jìn)行 AI 研究和應(yīng)用開發(fā)?本篇文章將為你詳細(xì)解析本地部署 DeepSeek 的完整流程,讓你輕松打造屬于自己的 AI 推理環(huán)境。
準(zhǔn)備工作
首先我們要準(zhǔn)備一臺電腦,配置越高當(dāng)然越好,不過我的測試本是一個比較老舊的 MBP,配置如圖:
同時,要在本地搭建好 Python 環(huán)境,這個不在這里贅述。
接下來本文將詳細(xì)介紹如何在本地部署 DeepSeek
蒸餾模型,內(nèi)容主要包括 Ollama
的介紹與安裝、如何通過 Ollama
部署 DeepSeek
,在 Cherry Studio
中使用 DeepSeek
。
安裝 Ollama
首先打開 Ollama 的官方網(wǎng)站:https://ollama.com/
,如圖:
點(diǎn)擊 Download,會進(jìn)入到如下頁面:
點(diǎn)擊 Download for macOS 即可進(jìn)行下載。
下載完成后解壓安裝。解壓后會產(chǎn)生一個 Ollama.app。我們只需要將這個 app 移動到應(yīng)用程序中即可。如圖:
然后接下來我們找到應(yīng)用程序中的 Ollama,點(diǎn)擊進(jìn)行安裝。
會出現(xiàn)如圖所示的頁面,只需點(diǎn)擊 Next 即可。
當(dāng)點(diǎn)擊完 Next 后會出現(xiàn)下圖所示的頁面,我們繼續(xù)點(diǎn)擊 Install 即可。
最后會出現(xiàn) Finish 頁面,
安裝好 Ollama 后 Mac 的通知欄會有一個類似下圖的下圖標(biāo),說明安裝完畢。
至此 Ollama 安裝告一段落。
配置 Models
當(dāng)安裝完 Ollama 后,我們需要回到 Ollama 的官網(wǎng)找到 Models 去下載我們的模型,如圖:點(diǎn)擊 Download。
點(diǎn)擊完 Download 后會出現(xiàn)下圖所示的頁面,也就是我們所需要的東西:
我們點(diǎn)擊 deepseek-r1。此時會出現(xiàn)如下頁面:
因為測試電腦的硬盤原因我們選擇的是 8B 版的??梢騻€人需要進(jìn)行調(diào)整。選擇好 8B 版本后。復(fù)制圖中的命令進(jìn)行留存,后面會用到。
打開我們 Mac 的終端。輸入上面我們記住的命令。記住要將命令中的 run 替換成 pull
然后執(zhí)行下載。結(jié)果如圖所示,出現(xiàn) success 說明安裝成功。
安裝配置 Cherry Studio
首先打開 Cherry Studio 官網(wǎng):https://cherry-ai.com
點(diǎn)擊下載客戶端。如圖:
下載完成后會有一個 cherry studio 的 dmg 文件,雙擊安裝即可。
安裝完成 Cherry Studio 后。我們在應(yīng)用程序中找到并打開它。如圖:
我們點(diǎn)擊上圖中:設(shè)置的小圖標(biāo),進(jìn)行配置模型。選擇 Ollama。然后點(diǎn)擊管理。
接著選擇我們下載的 8B 版本,或者是你下載的版本。
配置完成后,我們回到聊天助手那里。
接著按圖操作:
最后一步是在設(shè)置中配置模型參數(shù):
至此 Cherry Studio 設(shè)置完畢。
測試
我們就可以進(jìn)行測試?yán)玻?/span>
通過本地部署 DeepSeek,我們可以打造屬于自己的 AI 語言模型推理環(huán)境,無需依賴云端 API,同時能夠獲得更高的安全性和可控性。