2020年深度學(xué)習(xí)優(yōu)秀GPU一覽,看看哪一款最適合你!
大數(shù)據(jù)文摘出品
來源:lambdalabs
編譯:張秋玥
深度學(xué)習(xí)模型越來越強(qiáng)大的同時(shí),也占用了更多的內(nèi)存空間,但是許多GPU卻并沒有足夠的VRAM來訓(xùn)練它們。
那么如果你準(zhǔn)備進(jìn)入深度學(xué)習(xí),什么樣的GPU才是最合適的呢?下面列出了一些適合進(jìn)行深度學(xué)習(xí)模型訓(xùn)練的GPU,并將它們進(jìn)行了橫向比較,一起來看看吧!
太長不看版
截至2020年2月,以下GPU可以訓(xùn)練所有當(dāng)今語言和圖像模型:
- RTX 8000:48GB VRAM,約5500美元
- RTX 6000:24GB VRAM,約4000美元
- Titan RTX:24GB VRAM,約2500美元
以下GPU可以訓(xùn)練大多數(shù)(但不是全部)模型:
- RTX 2080 Ti:11GB VRAM,約1150美元
- GTX 1080 Ti:11GB VRAM,返廠翻新機(jī)約800美元
- RTX 2080:8GB VRAM,約720美元
- RTX 2070:8GB VRAM,約500美元
以下GPU不適合用于訓(xùn)練現(xiàn)在模型:
- RTX 2060:6GB VRAM,約359美元。
在這個(gè)GPU上進(jìn)行訓(xùn)練需要相對較小的batch size,模型的分布近似會受到影響,從而模型精度可能會較低。
圖像模型
內(nèi)存不足之前的最大批處理大?。?/p>
*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。
性能(以每秒處理的圖像為單位):
*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。
語言模型
內(nèi)存不足之前的最大批處理大小:
*表示GPU沒有足夠的內(nèi)存來運(yùn)行模型。
性能:
* GPU沒有足夠的內(nèi)存來運(yùn)行模型。
使用Quadro RTX 8000結(jié)果進(jìn)行標(biāo)準(zhǔn)化后的表現(xiàn)
圖像模型:
語言模型
結(jié)論
- 語言模型比圖像模型受益于更大的GPU內(nèi)存。注意右圖的曲線比左圖更陡。這表明語言模型受內(nèi)存大小限制更大,而圖像模型受計(jì)算力限制更大。
- 具有較大VRAM的GPU具有更好的性能,因?yàn)槭褂幂^大的批處理大小有助于使CUDA內(nèi)核飽和。
- 具有更高VRAM的GPU可按比例實(shí)現(xiàn)更大的批處理大小。只懂小學(xué)數(shù)學(xué)的人都知道這很合理:擁有24 GB VRAM的GPU可以比具有8 GB VRAM的GPU容納3倍大的批次。
- 比起其他模型來說,長序列語言模型不成比例地占用大量的內(nèi)存,因?yàn)樽⒁饬?attention)是序列長度的二次項(xiàng)。
GPU購買建議
- RTX 2060(6 GB):你想在業(yè)余時(shí)間探索深度學(xué)習(xí)。
- RTX 2070或2080(8 GB):你在認(rèn)真研究深度學(xué)習(xí),但GPU預(yù)算只有600-800美元。8 GB的VRAM適用于大多數(shù)模型。
- RTX 2080 Ti(11 GB):你在認(rèn)真研究深度學(xué)習(xí)并且您的GPU預(yù)算約為1,200美元。RTX 2080 Ti比RTX 2080快大約40%。
- Titan RTX和Quadro RTX 6000(24 GB):你正在廣泛使用現(xiàn)代模型,但卻沒有足夠買下RTX 8000的預(yù)算。
- Quadro RTX 8000(48 GB):你要么是想投資未來,要么是在研究2020年最新最酷炫的模型。
附注
圖像模型:
語言模型:
相關(guān)報(bào)道:https://lambdalabs.com/blog/choosing-a-gpu-for-deep-learning/
【本文是51CTO專欄機(jī)構(gòu)大數(shù)據(jù)文摘的原創(chuàng)譯文,微信公眾號“大數(shù)據(jù)文摘( id: BigDataDigest)”】