自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

基于Dify與DeepSeek:零門檻訓練自己的專屬AI大模型

人工智能
通過本文的教程,已經成功部署了DeepSeek R1:7b大模型,并利用Dify平臺創(chuàng)建了專屬的AI應用。無論是個人開發(fā)者還是企業(yè)用戶,都可以借助這一技術棧,快速實現(xiàn)AI應用的開發(fā)和部署。

在人工智能(AI)技術日益普及的今天,訓練屬于自己的AI大模型不再是遙不可及的夢想。隨著DeepSeek  R1的發(fā)布,其部署成本僅為ChatGPT的十分之一,這一突破讓更多企業(yè)和個人能夠輕松參與AI開發(fā)。未來,垂直領域的AI大模型和應用將如雨后春筍般涌現(xiàn),這無疑是一個巨大的機遇。

那么,普通人如何快速上手,打造自己的AI大模型呢?本文將為您詳細講解如何基于Dify和DeepSeek,從零開始訓練專屬AI模型。

一、Ollama:本地運行大模型的利器

Ollama是一個基于Go語言開發(fā)的開源框架,專門用于本地運行和管理大語言模型(LLM)。我們將使用Ollama來運行DeepSeek大模型,支持CPU和GPU兩種環(huán)境。

1.1 CPU環(huán)境部署

對于個人開發(fā)者或實驗用途,CPU環(huán)境足以運行DeepSeek R1:7b模型,盡管性能可能稍顯不足。以下是部署步驟:

docker run -d -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn-hangzhou.aliyuncs.com/yilingyi/ollama

1.2 GPU環(huán)境部署

若追求更流暢的性能,建議在GPU環(huán)境下運行。以下是以NVIDIA顯卡為例的部署流程:

1. 安裝NVIDIA Container Toolkit

  • 配置倉庫:
bash復制curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey  \
    | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg  
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list  \
    | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg]  https://#g' \
    | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list  
sudo apt-get update
  • 安裝工具包:
sudo apt-get install -y nvidia-container-toolkit

2. 配置Docker支持GPU

sudo nvidia-ctk runtime configure --runtime=docker 
sudo systemctl restart docker

3. 運行Ollama

docker run -d --gpus=all -v /data/ollama:/root/.ollama -p 11434:11434 --name ollama registry.cn

二、運行DeepSeek大模型

完成Ollama部署后,通過以下指令下載并運行DeepSeek R1:7b模型:

docker exec -it ollama ollama run deepseek-r1:7b

下載過程可能需要一些時間,但在此期間,我們可以繼續(xù)部署Dify平臺,為后續(xù)的AI應用開發(fā)做好準備。

三、Dify:AI應用開發(fā)的得力助手

Dify是一款開源的大語言模型(LLM)應用開發(fā)平臺,結合了后端即服務(Backend as a Service)和LLMOps的理念,幫助開發(fā)者快速構建生產級的生成式AI應用。即使是技術小白,也能輕松上手。

3.1 安裝Docker-Compose V2

bash復制mkdir -p ~/.docker/cli-plugins/
curl -SL https://github.com/docker/compose/releases/download/v2.20.2/docker-compose-linux-x86_64  -o ~/.docker/cli-plugins/docker-compose

3.2 克隆Dify倉庫

git clone https://github.com/langgenius/dify.git

3.3 啟動Dify

  • 進入Dify的Docker目錄:
cd dify/docker
  • 復制環(huán)境配置文件:
cp .env.example  .env
  • 啟動Docker容器:
docker compose up -d
  • 初始化Dify:

在瀏覽器中訪問以下地址,設置您的賬號和密碼:

bash

復制
http://your_server_ip/install

四、Dify中配置DeepSeek大模型

完成Dify部署后,我們需要在控制臺中添加DeepSeek R1:7b大模型。

(1)登錄Dify控制臺,點擊右上角的“設置”。

圖片圖片

(2)在左側菜單中選擇“模型供應商”,添加Ollama配置。

圖片圖片

(3)創(chuàng)建一個空白應用,選擇“Chatflow”類型。

圖片圖片

(4)在LLM節(jié)點中選擇“deepseek-r1:7b”模型,設置上下文為用戶查詢變量sys.query ,在SYSTEM處設置提示詞(Prompt),定義模型的處理邏輯。

圖片圖片

(5)預覽無誤后,發(fā)布應用。

圖片圖片

五、總結

通過本文的教程,已經成功部署了DeepSeek R1:7b大模型,并利用Dify平臺創(chuàng)建了專屬的AI應用。無論是個人開發(fā)者還是企業(yè)用戶,都可以借助這一技術棧,快速實現(xiàn)AI應用的開發(fā)和部署。

責任編輯:武曉燕 來源: 冰河技術
相關推薦

2018-07-23 16:18:01

2015-01-28 10:55:09

平安免費WiFi

2021-09-10 09:37:05

AI 數(shù)據(jù)人工智能

2024-04-01 12:43:40

模型訓練開源

2020-01-13 21:18:30

大咖來了大數(shù)據(jù)云分析平臺

2025-04-01 09:54:09

AI算法大模型AI

2022-11-24 09:19:53

AI數(shù)據(jù)挖掘

2020-11-12 09:55:10

百度

2023-10-31 10:11:50

昆侖萬維大模型

2020-07-13 12:27:37

百度大腦

2020-07-30 09:52:05

人工智能數(shù)據(jù)管理技術

2024-10-08 10:15:00

AI模型

2011-12-16 13:27:16

360文件管理

2012-04-26 11:45:45

2023-10-30 14:59:28

2020-08-06 11:27:39

百度AI開發(fā)者
點贊
收藏

51CTO技術棧公眾號