超簡(jiǎn)單:三步教你搞定DeepSeek本地部署
最近,國(guó)產(chǎn)AI神器DeepSeek爆火,其深度思考能力完美的體現(xiàn)了DeepSeek先進(jìn)的算力和優(yōu)越的性能??梢赃@么說(shuō),DeepSeek的問世,推動(dòng)了AI大模型的跨越式發(fā)展。
作為一款A(yù)I領(lǐng)域的現(xiàn)象級(jí)產(chǎn)品,DeepSeek的用戶量在短時(shí)間內(nèi)暴增,服務(wù)器也被大量攻擊,不少小伙伴在使用DeepSeek時(shí),經(jīng)常會(huì)出現(xiàn)服務(wù)器繁忙的提示。
那如果我們能夠?qū)eepSeek部署到本地,在我們自己電腦上部署運(yùn)行DeepSeek,那是不是就方便多了呢?說(shuō)干就干,接下來(lái),我們就通過單個(gè)步驟在本地安裝部署DeepSeek。
一、下載安裝Ollama
在本地部署DeepSeek會(huì)使用到Ollama,所以,需要現(xiàn)在本地下載安裝Ollama。
Ollama官方地址:https://ollama.com
小伙伴們可以根據(jù)自己的需要下載MacOS、Linux和Windows版本的Ollama,由于冰河目前使用的是Windows系統(tǒng),所以,這里我下載的是Windows版本的Ollama。
下載后在本地安裝Ollama。
二、下載DeepSeek-R1
(1)定位Models
進(jìn)入Ollama官網(wǎng),找到Models。
(2)找到DeepSeek-R1模型
(3)選擇對(duì)應(yīng)的模型下載
DeepSeek-R1有很多不同的版本可供下載,例如1.5b、7b、8b、14b、32b、70b或671b,版本越高,模型越大,對(duì)于電腦的內(nèi)存、顯卡等資源的配置要求就越高。
這里為了方便安裝演示,我先給大家演示如何部署8b的模型。后續(xù)帶著大家在服務(wù)上部署更高版本的模型。
進(jìn)入DeepSeek-R1模型的詳情,選擇8b模型,如下所示。
(4)打開電腦終端
以管理員身份打開電腦終端,如下所示。
(5)部署8b模型
首先,如下圖所示復(fù)制8b模型的代碼。
隨后,將其粘貼到命令行終端,如下所示。
如果出現(xiàn)下圖所示的進(jìn)度,則說(shuō)明正在下載模型。
等待一段時(shí)間,如果出現(xiàn)success字樣,則說(shuō)明部署成功,如下所示。
部署成功后,我們可以試著在命令行發(fā)送一條消息給DeepSeek,這里我發(fā)送一個(gè)“你好”給DeepSeek。
可以看到,向DeepSeek發(fā)送你好后,它也回復(fù)了一段內(nèi)容。
至此,我們就可以和DeepSeek在命令行進(jìn)行對(duì)話了。不過,只是在命令行與DeepSeek對(duì)話,那就顯得有點(diǎn)不怎么方便了,所以,我們繼續(xù)部署Chatbox。
三、安裝Chatbox
通過部署Chatbox,我們可以使用在網(wǎng)頁(yè)或者客戶端與DeepSeek進(jìn)行交互。Chatbox的安裝步驟如下所示。
(1)下載安裝Chatbox
Chatbox官網(wǎng):https://chatboxai.app/zh
直接進(jìn)入官網(wǎng)下載客戶端,如下所示。
下載完成后,雙擊進(jìn)行安裝即可。
(2)配置DeepSeek-R1模型
打開Chatbox,選擇設(shè)置—>Ollama API,如下所示。
選擇已經(jīng)安裝好的DeepSeek-R1 8b模型,進(jìn)行保存。
等待部署完成,就可以在Chatbox頁(yè)面中與DeepSeek進(jìn)行對(duì)話了。
怎么部署起來(lái)是不是很簡(jiǎn)單呢?