DeepSeek的三種接入使用方法 原創(chuàng)
前言
DeepSeek作為國產(chǎn)頂尖大模型,在代碼生成和邏輯推理方面表現(xiàn)優(yōu)異。本文提供三種不同場景下的接入方案,滿足從普通用戶到開發(fā)者的不同需求。
當(dāng)前問題
由于訪問量激增和網(wǎng)絡(luò)攻擊,官網(wǎng)服務(wù)可能出現(xiàn)不穩(wěn)定。本文提供三種備用接入方案:
方法一:使用??chatbox+硅基流動(dòng)?
?接入云端API使用(適合于普通用戶使用)
方法二:使用??Cursor+硅基流動(dòng)?
?接入云端API使用(適合于程序員人群)
方法三:使用??ollama本地化部署?
?使用(適用于有安全隱私需求的用戶)
方法一:使用chatbox+硅基流動(dòng)接入云端API使用
1. 安裝chatbox
下載對應(yīng)版本并安裝chatbox
說明:
- 本例中以Windows為例,其他平臺(tái)請參考官網(wǎng)
2. 注冊硅基流動(dòng)賬號(hào)
訪問硅基流動(dòng)官網(wǎng) ??https://siliconflow.cn/m??
完成注冊和實(shí)名認(rèn)證
說明:硅基流動(dòng)現(xiàn)在注冊并實(shí)名認(rèn)證后,會(huì)贈(zèng)送14元金額試用。
3. 獲取API Key
登錄后,點(diǎn)擊左側(cè)菜單欄的「API密鑰」
選擇「API密鑰」->「新建API密鑰」
輸入密鑰描述內(nèi)容后,點(diǎn)擊「新建密鑰」
4. 配置chatbox
設(shè)置 -> 模型提供商 -> 選擇「SiliconFlow API」
在API密鑰框,將上一步獲取的API Key填入「API 密鑰」
在模型框,選擇「deepseek-r1」后,點(diǎn)擊
5. 測試模型效果
輸入測試問題:"用比喻的方式解釋deepseek模型為什么性能要優(yōu)于OpenAI"
方法二:使用cursor+硅基流動(dòng)接入云端API使用
1. 安裝cursor
- 訪問 https://www.cursor.com/
- 下載并安裝IDE
- 注冊cursor賬號(hào)
2. 配置硅基流動(dòng)API
- 打開Cursor設(shè)置對話框
- 左側(cè)選擇Models
- 在OpenAI API Key框,填入硅基流動(dòng)上創(chuàng)建的API Key
- 在OpenAI Base URL框,填入?
?https://api.siliconflow.cn/v1?
?并保存 - 點(diǎn)擊Add Model,輸入?
?deepseek-ai/DeepSeek-R1?
? - 點(diǎn)擊Verify,驗(yàn)證模型是否可用
說明:
- 硅基流動(dòng)的API Base URL可以在硅基流動(dòng)官網(wǎng)的模型廣場,選擇對應(yīng)的模型查看其API文檔獲得。
- 模型名稱?
?deepseek-ai/DeepSeek-R1?
?可以在硅基流動(dòng)的模型廣場中,選擇對應(yīng)的模型后直接復(fù)制獲得。
3. 測試代碼功能
- 使用cursor創(chuàng)建一個(gè)新的項(xiàng)目,例如"俄羅斯方塊游戲"
- 使用快捷鍵?
?Cmd/Ctrl+I?
?打開Composer界面 - 輸入我們的需求后回車,例如:"請使用html實(shí)現(xiàn)一個(gè)俄羅斯方塊游戲"
- Cursor會(huì)調(diào)用硅基流動(dòng)的DeepSeek-R1模型,自動(dòng)生成俄羅斯方塊游戲,如下圖:
- 使用瀏覽器打開生成的tetris.html文件,即可看到俄羅斯方塊游戲,如下圖:
備注:
- Cursor有14天的試用期,試用期結(jié)束后需要購買訂閱才能繼續(xù)使用。
- 經(jīng)過實(shí)測,使用Cursor內(nèi)置的DeepSeek-R1模型會(huì)比硅基流動(dòng)API的DeepSeek-R1模型速度會(huì)更快。
方法三:使用ollama本地化部署使用
1. 硬件配置
模型規(guī)模 | 使用場景 | CPU核心 | 內(nèi)存容量 | 顯卡型號(hào) | 顯存需求 | 推薦部署方式 |
1.5B | 嵌入式設(shè)備 | 4核 | 8GB | Jetson Orin | 6GB | 4-bit量化+TensorRT加速 |
7B | 個(gè)人開發(fā)/測試 | 8核 | 32GB | RTX 3060 | 14GB | FP16精度+單卡推理 |
70B | 企業(yè)級(jí)服務(wù) | 32核×4 | 512GB | A100 80G ×4 | 320GB | 張量并行+流水線并行 |
671B | 超大規(guī)模計(jì)算 | 64核×8 | 2TB | H100 80G ×16 | 1.28TB | 混合并行+專家并行 |
注明:
- 顯存預(yù)估方式一般為:模型參數(shù)×2.5(如7B模型需7×2.5=17.5GB,需RTX 3090 24GB)
- 本例中,筆者使用的是RTX 4080顯卡16G顯存,所以選擇7B模型。
2. 安裝ollama
訪問ollama官網(wǎng) https://ollama.com/
根據(jù)系統(tǒng)選擇對應(yīng)的安裝方式
# Windows用戶:訪問 https://ollama.com/download/windows 下載安裝包
# Mac用戶:訪問 https://ollama.com/download/mac 下載安裝包
# Linux用戶:執(zhí)行
curl -fsSL https://ollama.com/install.sh | sh
說明:
- 本例中以Windows為例,其他平臺(tái)請參考官網(wǎng)
- 安裝完成后,在命令行中輸入ollama可以看到命令行幫助文檔
3. 配置ollama的下載路徑
因?yàn)閛llama默認(rèn)下載路徑為??C:\Users\用戶名\.ollama?
?,所以我們需要配置ollama的下載路徑,避免C盤占用過大。
在??系統(tǒng)設(shè)置→搜索"環(huán)境變量"→高級(jí)系統(tǒng)設(shè)置→添加系統(tǒng)變量?
?中新增Ollama的下載路徑
變量名:OLLAMA_MODELS
變量值:G:\ai_LLMs_modules\Ollama
說明:變量值請根據(jù)自己的情況修改,本例中是?
?G:\ai_LLMs_modules\Ollama?
?
4. 下載DeepSeek大模型
- 訪問ollama模型查詢頁面https://ollama.com/search
- 搜索deepseek-r1模型
- 根據(jù)本機(jī)配置情況,我們選擇?
?deepseek-r1:7b?
?模型,執(zhí)行如下命令
ollama run deepseek-r1:7b
下載模型根據(jù)網(wǎng)絡(luò)環(huán)境會(huì)花費(fèi)不同的時(shí)間,待下載完成后,會(huì)提示"success"
5. 測試模型效果
>>> 請用Python寫一個(gè)快速排序算法
6. 集成前端UI
因?yàn)閛llama本身沒有提供前端UI,通過命令行交互起來比較繁瑣。所以,我們可以根據(jù)之前介紹的方法一或方法二,將模型集成到前端chatbox或者cursor中。
本例,我們采用方法一,將模型集成到chatbox中。
- 打開chatbox,點(diǎn)擊設(shè)置
- 模型提供方選擇 ?
?Ollama API?
? - API域名填寫 ?
?http://127.0.0.1:11434?
? - 模型選擇 ?
?deepseek-r1:7b?
? - 點(diǎn)擊保存
運(yùn)行效果:
說明:經(jīng)過實(shí)測,筆者4080顯卡16G顯存,使用ollama本地化部署deepseek-r1:7b 模型,顯存占用約7G,可以實(shí)現(xiàn)流暢的交互體驗(yàn)。
優(yōu)缺點(diǎn)對比
對比維度 | 方法一:ChatBox+API | 方法二:Cursor+API | 方法三:Ollama本地部署 |
部署難度 | ?? (需注冊API Key) | ??? (需IDE配置) | ???? (需硬件環(huán)境) |
響應(yīng)速度 | 100-200ms (依賴網(wǎng)絡(luò)質(zhì)量) | 300-500ms (試驗(yàn)時(shí)較慢) | 50-150ms (本地計(jì)算) |
隱私性 | 中 (數(shù)據(jù)經(jīng)過第三方服務(wù)器) | 中 (數(shù)據(jù)經(jīng)過第三方服務(wù)器) | 高 (完全本地運(yùn)行) |
硬件要求 | 無特殊要求 | 無特殊要求 | 16GB內(nèi)存+獨(dú)立顯卡 |
成本 | ¥4/100 萬個(gè) Tokens | $10/月訂閱費(fèi) | 一次性硬件投入 |
適用場景 | 日常辦公/簡單問答 | 程序開發(fā)/技術(shù)寫作 | 敏感數(shù)據(jù)處理/定制開發(fā) |
模型更新 | 自動(dòng)更新 | 跟隨IDE版本 | 手動(dòng)更新 |
離線可用性 | 否 | 否 | 完全離線 |
備注說明:
- ¥4/100 萬個(gè) Tokens 是硅基流動(dòng)的API價(jià)格,其相當(dāng)于:
- 讓AI寫一個(gè)5000字的文章,花費(fèi)約為:1萬 Tokens ÷ 100萬 Tokens × 4元 =0.04元;
- 讓AI每天寫100個(gè)5000字的文章,花費(fèi)約為:100次 × 1000 Tokens = 10萬 Tokens → 10萬 ÷100萬 ×4元 =0.4元
內(nèi)容小結(jié)
- DeepSeek大模型在部署方面,支持多種方式,滿足從普通用戶到開發(fā)者的不同需求。
- 對于普通用戶,使用chatbox+硅基流動(dòng)接入云端API使用,可以實(shí)現(xiàn)快速接入和使用。
- 對于程序員,使用cursor+硅基流動(dòng)接入云端API使用,可以實(shí)現(xiàn)代碼開發(fā)和調(diào)試輔助。
- 對于有安全隱私需求的用戶,使用ollama本地化部署使用,可以實(shí)現(xiàn)完全離線使用。
