自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

三種RAG部署方案:自購GPU硬件 vs 大模型一體機(jī) vs 云端GPU

人工智能
自購 GPU 硬件、大模型一體機(jī)、以及選擇云端 GPU 都有各自適用的情形。這篇試圖說清楚三種部署方式的主要特點對比,并在文末給些選擇建議參考。

春節(jié)以后這一個半月,算了下我前后也做了 20+的企業(yè)知識庫落地咨詢,其中無論是線上還是線下,被問到最多的一個問題是:

要快速落地本地部署的知識庫,應(yīng)該購買什么硬件?

要回答這個問題,其實需要明確很多前置定語,自購 GPU 硬件、大模型一體機(jī)、以及選擇云端 GPU 都有各自適用的情形。這篇試圖說清楚三種部署方式的主要特點對比,并在文末給些選擇建議參考。

以下,enjoy:

1、自購 GPU 硬件

以 NVIDIA GeForce RTX 4090 GPU (24GB 顯存)為例,我接觸到的企業(yè)方里不乏有些已經(jīng)屯了幾塊,但是大部分都在吃灰,主要這玩意配置起來有些小門檻,下面結(jié)合兩張 4090 部署 DeepSeek R1 qwen 32B 為例做個簡要的部署流程介紹,供參考:

1.1 硬件配置

顯卡

使用兩張 NVIDIA RTX 4090 顯卡(單卡 24GB 顯存),需要通過張量并行實現(xiàn)顯存共享與計算加速。

推薦 PCIe 4.0 x8/x8 通道拆分,確保雙卡間數(shù)據(jù)交互帶寬充足。

主板與 CPU

主板需支持雙 PCIe 4.0 插槽(如 Z790/Z890 芯片組)。

CPU 建議選擇多核型號(如 Intel i9-14900K 或 AMD Ryzen 9 7950X),以處理數(shù)據(jù)加載與多任務(wù)調(diào)度。

內(nèi)存與存儲

內(nèi)存至少 64GB DDR5(推薦 128GB),提升模型加載效率。

存儲需 1TB NVMe SSD,用于存放模型文件(約 20-40GB)。

電源與散熱

電源建議 1300W 以上(單卡 TDP 450W,雙卡+系統(tǒng)需預(yù)留余量)。

配備高效風(fēng)冷或水冷系統(tǒng),確保長時間運(yùn)行穩(wěn)定性。

1.2 軟件環(huán)境配置

操作系統(tǒng)推薦選擇 Ubuntu 22.04 LTS,或者 Windows 11(但是需要 WSL2 支持)。安裝 NVIDIA 驅(qū)動(≥535 版本)和 CUDA Toolkit 12.2,支持 Ampere 架構(gòu)優(yōu)化。

另外因為是雙卡,所以要驗證下驅(qū)動,nvidia-smi 顯示雙卡狀態(tài),nvcc -V 確認(rèn) CUDA 版本。

安裝 PyTorch(≥2.4.0)與 CUDA 適配版本, vLLM版本≥0.5.5。

1.3 模型部署與 vLLM 配置

從HuggingFace或魔塔社區(qū)下載 DeepSeek R1-32B-GPTQ-Int4 量化模型:

huggingface-cli download --resume-download DeepSeek/DeepSeek-R1-32B-GPTQ-Int4 --local-dir ./DeepSeek-R1-32B

使用以下命令啟動雙卡并行推理服務(wù):

vllm serve ./DeepSeek-R1-32B \
    --tensor-parallel-size 2 \
    --host 0.0.0.0 \
    --port 6006 \
    --served-model-name DeepSeek-R1-32B \
    --gpu-memory-utilization 0.95 \
    --max-model-len 4096 \
    --quantization gptq

關(guān)鍵參數(shù)說明:

tensor-parallel-size 2:啟用雙卡張量并行。

gpu-memory-utilization 0.95:顯存利用率調(diào)至 95%,避免 OOM。
quantization gptq:啟用 4-bit GPTQ 量化,顯存需求降至約 22GB/卡。

1.4 并發(fā)優(yōu)化

實測雙卡 RTX 4090 在 4-bit 量化下,生成吞吐量可達(dá) 60-80 tokens/s(單卡約 35-45 tokens/s)??梢愿鶕?jù)顯存和請求長度調(diào)整--max-num-seqs(默認(rèn) 256),單卡可支持 10-20 并發(fā)請求。使用 Nginx 反向代理可以實現(xiàn)多實例負(fù)載均衡,從而提升整體吞吐。


RAG 框架部署部分,為了節(jié)省篇幅就不贅述了,大家自行去各個產(chǎn)品官網(wǎng)去看,基本就是 git+docker compose 的一鍵操作。

自購 GPU門檻主要在于需要自行解決安裝配置、驅(qū)動兼容、散熱等問題,需要額外承擔(dān)電費(fèi)和維護(hù)成本,當(dāng)然好處就是自由度高,可以根據(jù)需求自定義硬件配置,也不需要擔(dān)心數(shù)據(jù)隱私和安全問題。

2、大模型一體機(jī)

上面說了自購硬件的各種配置操作,在一體機(jī)這里倒不是個問題。目前市場上也有很多款專門 DeepSeek 設(shè)計的一體機(jī),我也偶爾會收到些一體機(jī)廠商的合作溝通。

圖片

這些都預(yù)裝了軟硬件環(huán)境,有針對國產(chǎn)芯片的優(yōu)化版本,比如基于華為昇騰、百度昆侖芯等,價格范圍一般中低端配置在幾萬塊,中高端就幾十萬水平,具體取決于品牌、硬件配置和功能需求。

好處很明顯,就是開箱即用,內(nèi)置了多種應(yīng)用場景,如語音識別、圖像識別、自然語言處理等,不需要復(fù)雜配置即可快速上手,廠商通常提供統(tǒng)一的管理界面。

劣勢除了價格外,就是無法根據(jù)企業(yè)需求靈活升級性能,一般只能使用廠商提供的模型和工具。但有一說一,這種確實比較缺乏專業(yè) IT 團(tuán)隊進(jìn)行配置和維護(hù)的企業(yè)。

3、云端 GPU

3.1 6 大 GPU 廠商

云端 GPU 部署是指租用云服務(wù)商(如阿里云、騰訊云、AWS 等)提供的 GPU 實例,來部署大模型和 RAG 框架。根據(jù)實際使用的資源按需付費(fèi),特別適合初學(xué)者或短期 POC 驗證。下面貼了兩張全球六大云服務(wù)商的地域分布和實例類型的對比,大家做個參考。

圖片

圖片

以上兩張圖片來自fastone官網(wǎng)

價格方面根據(jù)實例配置收費(fèi)差別很大,對于初期測試 RTX 4090 為例也就夠用了,但是很遺憾的是目前阿里云、騰訊云等主流平臺主要提供 NVIDIA A100、V100、T4 等專業(yè)計算卡,尚未推出基于 RTX 4090 的實例。以下貼了張從阿里云官網(wǎng)找的主流實例類型和價格,大家做個參考:

圖片

3.2 glows.ai

為了更加便宜的進(jìn)行測試,這里推薦個 glows.ai 平臺(不是廣告)可以選擇 4090 的實例,而且很神奇的是,其中居然有個 RAGFlow 實例已預(yù)裝好相關(guān)環(huán)境和框架,主打一個開箱即用。

圖片

價格方面,每小時需要 3.9 個 credits( RTX 4090 GPU (24GB 顯存,10 個 vCPU,48GB 內(nèi)存,100GB 存儲空間)。我充值了 10 刀有 100 個 credits,差不多 2.8 元每小時,這個價格很適合個人或者小企業(yè)來進(jìn)行短期測試,我現(xiàn)在在給一些企業(yè)做 demo 的時候,也是在上面進(jìn)行操作的。

https://glows.ai/invite/Glows-69kjxn2p (注冊鏈接,無免費(fèi)額度)

(注:第三方小廠商的穩(wěn)定性與技術(shù)支持,大家自行測評)

圖片

關(guān)于使用方式上,最直接的是打開提供的網(wǎng)頁鏈接訪問 ragflow 的網(wǎng)站,這個效果和本地使用 docker 部署后使用 localhost 打開是一樣的用法,唯一不同的就是確實會比自己集成顯卡的電腦解析文檔快些。

圖片

不過還是推薦使用 romote ssh 插件進(jìn)行連接,這樣就可以在本地通過 ragflow 的官方 python api 或者 http api 編寫一些自定義的處理腳本,從而更好的實現(xiàn)行業(yè)特定的分塊策略,以及專業(yè)領(lǐng)域的檢索優(yōu)化。

(此處插播個廣告,歡迎去試下我在知識星球發(fā)布的部分腳本。p.s.下周會建會員群交流日常實踐)

圖片

圖片

如果在做好前兩項的基礎(chǔ)上,可以再進(jìn)一步探索嵌入模型的對比,上下文構(gòu)建等。當(dāng)然,具體情況還需要根據(jù)實際項目特點和資源限制來調(diào)整。

圖片

需要說明的是,在云端 GPU 這種 RAG 部署方式下,我沒有展開介紹開源模型的部署過程,這是以為既然選擇了云端測試就更沒必要做 LLM 的單獨部署,如果后續(xù)考慮在本地部署 DeepSeek-R1-Distill-Qwen-32B(目前接觸企業(yè)的主流選擇),那就在云端測試環(huán)節(jié)也直接調(diào)用這個 LLM 的 API 即可。

我主要在用的是 siliconflow 這個平臺,大家可以做個參考。https://cloud.siliconflow.cn/models?target=deepseek-ai/DeepSeek-R1-Distill-Qwen-32B 。 當(dāng)然,Qwen 系列的 QwQ-32B 也可以同步對比下看看。

另外,對于云端 GPU 的測試方案,當(dāng)想要釋放云端資源停止計費(fèi)時,有幾種方法可以保存代碼和文件。最簡單的就是在 VS Code 中,直接從遠(yuǎn)程文件資源管理器中將文件拖放到本地窗口。當(dāng)然,如果項目已經(jīng)使用 Git 管理,只需確保所有更改都已提交并推送到遠(yuǎn)程倉庫。另外,Glows.ai 也提供了"Snapshot"功能,在釋放實例前創(chuàng)建快照,下次可以從快照快速恢復(fù)環(huán)境。

4、結(jié)語

選擇 RAG 系統(tǒng)的部署方式?jīng)]有一刀切的標(biāo)準(zhǔn)答案,需要企業(yè)根據(jù)自身的業(yè)務(wù)需求、技術(shù)能力、預(yù)算情況和安全合規(guī)要求綜合考量。

  • 對于對數(shù)據(jù)安全要求很高、長期使用且有 IT 團(tuán)隊的企業(yè),自購 GPU 硬件可能是理想選擇;
  • 但對于技術(shù)能力有限但預(yù)算充足的企業(yè),大模型一體機(jī)提供了便捷的解決方案;
  • 而對于初創(chuàng)企業(yè)、需求波動大或短期項目,云端 GPU 服務(wù)則提供了最靈活的選擇。

Anyway,個人建議先從小規(guī)模云服務(wù)開始做 POC 驗證,RAG 各個核心組件的調(diào)優(yōu)本也需要花點功夫去適配業(yè)務(wù)場景,完成初步調(diào)試后先在企業(yè)內(nèi)部做小范圍試點,隨著業(yè)務(wù)的成熟和規(guī)模的擴(kuò)大,再考慮遷移到更符合長期戰(zhàn)略的部署方式。

責(zé)任編輯:龐桂玉 來源: 韋東東
相關(guān)推薦

2011-05-03 13:31:35

打印機(jī)一體機(jī)

2011-05-03 15:35:48

一體機(jī)購買技巧

2015-09-23 17:07:33

樂事

2011-05-04 14:35:52

蘋果iMac(MC51A)

2011-05-26 14:02:16

華碩一體機(jī)

2017-09-06 16:07:26

一體機(jī)電腦PC

2013-01-31 09:06:32

存儲初志科技一體機(jī)

2011-05-03 15:55:19

一體機(jī)選購

2015-11-18 17:53:09

樂事

2011-12-25 15:40:59

ibmdw

2011-05-12 10:54:58

一體機(jī)技巧

2012-05-07 13:51:23

惠普商用一體機(jī)HP Compaq E

2011-05-04 13:52:22

惠普TouchSmar一體臺式電腦

2013-07-19 17:04:21

IT半小時

2011-05-03 16:27:47

中型企業(yè)一體機(jī)

2011-05-04 11:22:28

激光一體機(jī)使用技巧

2011-05-05 14:51:52

一體機(jī)

2011-05-13 14:16:27

愛普生一體機(jī)

2024-09-26 16:34:06

點贊
收藏

51CTO技術(shù)棧公眾號