自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

2020年深度學(xué)習(xí)優(yōu)秀GPU一覽,看看哪一款最適合你!

人工智能 深度學(xué)習(xí)
如果你準(zhǔn)備進(jìn)入深度學(xué)習(xí),什么樣的GPU才是最合適的呢?下面列出了一些適合進(jìn)行深度學(xué)習(xí)模型訓(xùn)練的GPU,并將它們進(jìn)行了橫向比較,一起來看看吧!

GPU/深度學(xué)習(xí)

大數(shù)據(jù)文摘出品

來源:lambdalabs

編譯:張秋玥

深度學(xué)習(xí)模型越來越強(qiáng)大的同時(shí),也占用了更多的內(nèi)存空間,但是許多GPU卻并沒有足夠的VRAM來訓(xùn)練它們。

那么如果你準(zhǔn)備進(jìn)入深度學(xué)習(xí),什么樣的GPU才是最合適的呢?下面列出了一些適合進(jìn)行深度學(xué)習(xí)模型訓(xùn)練的GPU,并將它們進(jìn)行了橫向比較,一起來看看吧!

太長不看版

截至2020年2月,以下GPU可以訓(xùn)練所有當(dāng)今語言和圖像模型:

  • RTX 8000:48GB VRAM,約5500美元
  • RTX 6000:24GB VRAM,約4000美元
  • Titan RTX:24GB VRAM,約2500美元

以下GPU可以訓(xùn)練大多數(shù)(但不是全部)模型:

  • RTX 2080 Ti:11GB VRAM,約1150美元
  • GTX 1080 Ti:11GB VRAM,返廠翻新機(jī)約800美元
  • RTX 2080:8GB VRAM,約720美元
  • RTX 2070:8GB VRAM,約500美元

以下GPU不適合用于訓(xùn)練現(xiàn)在模型:

  • RTX 2060:6GB VRAM,約359美元。

在這個(gè)GPU上進(jìn)行訓(xùn)練需要相對較小的batch size,模型的分布近似會受到影響,從而模型精度可能會較低。

圖像模型

內(nèi)存不足之前的最大批處理大?。?/p>

*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。

性能(以每秒處理的圖像為單位):

*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。

語言模型

內(nèi)存不足之前的最大批處理大小:

*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。

性能:

* GPU沒有足夠的內(nèi)存來運(yùn)行模型。

使用Quadro RTX 8000結(jié)果進(jìn)行標(biāo)準(zhǔn)化后的表現(xiàn)

圖像模型:

語言模型

結(jié)論

  • 語言模型比圖像模型受益于更大的GPU內(nèi)存。注意右圖的曲線比左圖更陡。這表明語言模型受內(nèi)存大小限制更大,而圖像模型受計(jì)算力限制更大。
  • 具有較大VRAM的GPU具有更好的性能,因?yàn)槭褂幂^大的批處理大小有助于使CUDA內(nèi)核飽和。
  • 具有更高VRAM的GPU可按比例實(shí)現(xiàn)更大的批處理大小。只懂小學(xué)數(shù)學(xué)的人都知道這很合理:擁有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容納3倍大的批次。
  • 比起其他模型來說,長序列語言模型不成比例地占用大量的內(nèi)存,因?yàn)樽⒁饬?attention)是序列長度的二次項(xiàng)。

GPU購買建議

  • RTX 2060(6 GB):你想在業(yè)余時(shí)間探索深度學(xué)習(xí)。
  • RTX 2070或2080(8 GB):你在認(rèn)真研究深度學(xué)習(xí),但GPU預(yù)算只有600-800美元。8 GB的VRAM適用于大多數(shù)模型。
  • RTX 2080 Ti(11 GB):你在認(rèn)真研究深度學(xué)習(xí)并且您的GPU預(yù)算約為1,200美元。RTX 2080 Ti比RTX 2080快大約40%。
  • Titan RTX和Quadro RTX 6000(24 GB):你正在廣泛使用現(xiàn)代模型,但卻沒有足夠買下RTX 8000的預(yù)算。
  • Quadro RTX 8000(48 GB):你要么是想投資未來,要么是在研究2020年最新最酷炫的模型。

附注

圖像模型:

語言模型:

相關(guān)報(bào)道:https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/

【本文是51CTO專欄機(jī)構(gòu)大數(shù)據(jù)文摘的原創(chuàng)譯文,微信公眾號“大數(shù)據(jù)文摘( id: BigDataDigest)”】

     大數(shù)據(jù)文摘二維碼

戳這里,看該作者更多好文

 

責(zé)任編輯:趙寧寧 來源: 51CTO專欄
相關(guān)推薦

2015-08-24 09:05:57

WLAN

2022-09-21 10:40:57

TensorFlowPyTorchJAX

2009-11-30 18:49:07

2011-11-08 08:59:51

云計(jì)算IaaSPaaS

2018-01-05 08:53:32

LinuxUbuntu發(fā)行版

2017-11-07 13:33:00

雙十一筆記本吃雞游戲

2015-02-13 09:47:27

華為認(rèn)證思科認(rèn)證

2018-11-29 09:45:03

Windows 10Windows版本

2019-07-02 15:10:58

瀏覽器Chrome移動(dòng)端

2022-03-17 08:00:00

項(xiàng)目管理IT工具

2015-06-17 09:54:08

2015-06-17 10:10:28

2011-06-20 13:39:21

Linux桌面Linux發(fā)行版

2016-07-14 16:27:54

linux

2019-09-01 19:19:04

TensorFlowPyTorch深度學(xué)習(xí)

2016-01-26 09:58:28

云存儲云服務(wù)云安全

2019-05-23 10:18:19

監(jiān)控組件cpu

2020-01-13 15:24:22

框架SparkHadoop

2020-07-06 10:29:21

Linux系統(tǒng)數(shù)據(jù)

2019-04-25 16:03:00

深度學(xué)習(xí)編程人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號