基于Dify與DeepSeek:零門檻訓練自己的專屬AI大模型
在人工智能(AI)技術日益普及的今天,訓練屬于自己的AI大模型不再是遙不可及的夢想。隨著DeepSeek R1的發(fā)布,其部署成本僅為ChatGPT的十分之一,這一突破讓更多企業(yè)和個人能夠輕松參與AI開發(fā)。未來,垂直領域的AI大模型和應用將如雨后春筍般涌現(xiàn),這無疑是一個巨大的機遇。
那么,普通人如何快速上手,打造自己的AI大模型呢?本文將為您詳細講解如何基于Dify和DeepSeek,從零開始訓練專屬AI模型。
一、Ollama:本地運行大模型的利器
Ollama是一個基于Go語言開發(fā)的開源框架,專門用于本地運行和管理大語言模型(LLM)。我們將使用Ollama來運行DeepSeek大模型,支持CPU和GPU兩種環(huán)境。
1.1 CPU環(huán)境部署
對于個人開發(fā)者或實驗用途,CPU環(huán)境足以運行DeepSeek R1:7b模型,盡管性能可能稍顯不足。以下是部署步驟:
docker run -d -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn-hangzhou.aliyuncs.com/yilingyi/ollama
1.2 GPU環(huán)境部署
若追求更流暢的性能,建議在GPU環(huán)境下運行。以下是以NVIDIA顯卡為例的部署流程:
1. 安裝NVIDIA Container Toolkit
- 配置倉庫:
bash復制curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
| sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
| sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
| sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt-get update
- 安裝工具包:
sudo apt-get install -y nvidia-container-toolkit
2. 配置Docker支持GPU
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
3. 運行Ollama
docker run -d --gpus=all -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn
二、運行DeepSeek大模型
完成Ollama部署后,通過以下指令下載并運行DeepSeek R1:7b模型:
docker exec -it ollama ollama run deepseek-r1:7b
下載過程可能需要一些時間,但在此期間,我們可以繼續(xù)部署Dify平臺,為后續(xù)的AI應用開發(fā)做好準備。
三、Dify:AI應用開發(fā)的得力助手
Dify是一款開源的大語言模型(LLM)應用開發(fā)平臺,結合了后端即服務(Backend as a Service)和LLMOps的理念,幫助開發(fā)者快速構建生產級的生成式AI應用。即使是技術小白,也能輕松上手。
3.1 安裝Docker-Compose V2
bash復制mkdir -p ~/.docker/cli-plugins/
curl -SL https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose
3.2 克隆Dify倉庫
git clone https://github.com/langgenius/dify.git
3.3 啟動Dify
- 進入Dify的Docker目錄:
cd dify/docker
- 復制環(huán)境配置文件:
cp .env.example .env
- 啟動Docker容器:
docker compose up -d
- 初始化Dify:
在瀏覽器中訪問以下地址,設置您的賬號和密碼:
bash
復制
http://your_server_ip/install
四、Dify中配置DeepSeek大模型
完成Dify部署后,我們需要在控制臺中添加DeepSeek R1:7b大模型。
(1)登錄Dify控制臺,點擊右上角的“設置”。
圖片
(2)在左側菜單中選擇“模型供應商”,添加Ollama配置。
圖片
(3)創(chuàng)建一個空白應用,選擇“Chatflow”類型。
圖片
(4)在LLM節(jié)點中選擇“deepseek-r1:7b”模型,設置上下文為用戶查詢變量sys.query
,在SYSTEM處設置提示詞(Prompt),定義模型的處理邏輯。
圖片
(5)預覽無誤后,發(fā)布應用。
圖片
五、總結
通過本文的教程,已經成功部署了DeepSeek R1:7b大模型,并利用Dify平臺創(chuàng)建了專屬的AI應用。無論是個人開發(fā)者還是企業(yè)用戶,都可以借助這一技術棧,快速實現(xiàn)AI應用的開發(fā)和部署。