自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

全美TOP 5機器學習博士:痛心,實驗室H100數(shù)量為0!同實驗室博士用GPU得靠搶

人工智能 新聞
全美TOP 5的機器學習博士痛心發(fā)帖自曝,自己實驗室里H100數(shù)目是0!這也引起了ML社區(qū)的全球網(wǎng)友大討論。顯然,相比普林斯頓、哈佛這樣動輒三四百塊H100的GPU大戶,更常見的是GPU短缺的「窮人」。同一個實驗室的博士,甚至時常會出現(xiàn)需要爭搶GPU的情況。

全美TOP 5高校的機器學習博士,實驗室卻連一塊H100都沒有?

最近,這位網(wǎng)友在reddit上發(fā)的這個帖子,立刻引發(fā)了社區(qū)大討論——

圖片

大家發(fā)現(xiàn),普林斯頓、哈佛這樣的「GPU豪門」,手上的H100至少以三四百塊打底,然而絕大多數(shù)ML博士,卻連一塊H100都用不上……

圖片

不同學校、機構之間的GPU「貧富差距」,竟然已經(jīng)到了如此懸殊的地步?

圖片

大部分實驗室,比斯坦福還差多了

兩個月前,AI教母李飛飛曾在采訪中表示,斯坦福的自然語言處理(NLP)小組只有64塊A100 GPU。

面對學術界如此匱乏的AI資源,李飛飛可謂是痛心疾首。

圖片

而這位發(fā)帖的網(wǎng)友也表示,自己在攻讀博士學位期間(全美排名前五的學校),計算資源是一個主要的瓶頸。

如果能有更多高性能的GPU,計算時間會顯著縮短,研究進度也會快很多。

圖片

所以,他的實驗室里到底有多少H100呢?答案是——0。

他向網(wǎng)友們發(fā)出提問:你們實驗室里都有多少GPU?能從亞馬遜、英偉達那里拿到額外的算力贊助嗎?

年輕的研究者們紛紛自曝自己所在學?;蚬镜腉PU情況,暴露出的事實,讓所有人大為驚訝。

1張2080Ti+1張3090,已是全部

一位似乎是亞洲的網(wǎng)友表示,雖然自己的研究方向是計算機視覺(CV)并不是機器學習,但在2019年剛開始時,只能夠使用一塊2080 Ti顯卡。

2021年,有機會使用一臺配備V100和RTX 8000顯卡的服務器。

2022年,獲得了使用一塊3090顯卡的權限。

2023年,能夠使用另一個實驗室的一組服務器,這些服務器包括12塊2080 Ti、5塊3090和8塊A100顯卡。同年,還獲得了一項計算資助,可以使用A100顯卡三個月。

2024年,學校購買了一臺配有8塊H100顯卡的服務器,并允許試用一個月。

此外,在2021年到2023年期間,也可以從一個本地學術提供商那里按小時租用GPU。

除了2080 Ti和3090這兩張顯卡外,大多數(shù)這些資源都是共享的。

圖片

題主問:這里的「a」就是字面意義上的「一個」么?

網(wǎng)友表示,是的,就是這么艱苦……

圖片

有人現(xiàn)身表示,自己可太慘了:沒有顯卡,沒有credits。因為所在大學無法提供幫助,只能讓實習公司幫自己獲得一些。

圖片

一位2022年底畢業(yè)的博士也自曝稱,實驗室專用的服務器共搭載了差不多30塊GPU,其中每臺服務器配有4張顯卡。(由于購買時間不同,性能也參差不齊)

不過,同一實驗室里搶GPU的事情還是時有發(fā)生。

圖片

對此,有網(wǎng)友總結道,0 GPU很常見。

理由也非常簡單:我們并不需要開著法拉利來學車。而且在開始,機器學習的基礎是線代、統(tǒng)計和編程,之后才是硬件流程的優(yōu)化。

圖片

而GPU嚴重匱乏的問題,在我國高校的實驗室內(nèi)也很普遍。

甚至,有博主發(fā)帖稱,某大學的課程竟要求學生自備算力設備。

五人一組的學生,至少擁有2塊3090/4090,或者是1塊40G A100,才能完成課程要求的LLM訓練任務。

那么問題來了,為何高校自己不能多采購一些GPU呢?

圖片

知友「網(wǎng)癮大爺」表示,高校直接購買GPU非常不劃算。LLM訓練參數(shù)規(guī)模增大,需要的是多機多卡,以及讓卡之間串聯(lián)的網(wǎng)絡。

不僅有學習成本、還有維護成本,這對于高校來說投入之大。所以比較常見的方式是,去租用服務器。

圖片

清華計算機系在讀博士孫恒提出了同樣的問題,卡可以買,但問題是,放在哪?

圖片

圖片

當然,有人在負重前行,自然也有人歲月靜好。

比如下面這些學校,相比起來就要「富?!沟枚嗔恕?/span>

「H100,我們也就幾百塊吧」

有網(wǎng)友透露,普林斯頓語言與智能研究所(PLI)和哈佛Kempner研究所擁有最大的計算集群,分別配備了300塊和400塊H100 GPU。

圖片

而這個信息,也得到了一位普林斯頓研究者的佐證——

圖片

在普林斯頓,可以使用的集群有三種。

- 小組集群有所不同,但對于10個人來說,32塊GPU的分配很合理

- 部門集群的資源更多,不過也需要看具體的部門

- 大學集群Della則擁有(128x2)+(48x4)個A100和(96x8)個H100

總之,普林斯頓和哈佛都可以說是顯卡大戶。

圖片

此外,也有網(wǎng)友爆料說,UT Austin擁有600塊H100。

圖片

蒙特利爾大學的博士生表示,自己的實驗室大約有500塊GPU,主要是A100 40GB和80GB。

圖片

德國亞琛工業(yè)大學的網(wǎng)友表示,學提供了一個包含52塊GPU節(jié)點的計算集群,每個節(jié)點配備4塊H100 GPU。

這些資源當然是所有院系共享的,其他一些機構也能使用。

不過,即使是學生,每個月也會分配到一定的集群使用時間。如果你需要更多的計算時間,可以申請不同規(guī)模的專用計算項目。

「我非常喜歡這個系統(tǒng),能夠使用它,對我來說是一次改變研究進程的機會。」

圖片

對如此充沛的算力,題主表示非常羨慕。

圖片

另一位歐洲的網(wǎng)友也表示,自己的實驗室有大約16塊實驗室專用的A100 GPU,并且還能通過幾個不同的額外集群訪問更多的GPU。

由于這些集群有很多用戶,所以具體規(guī)模很難估計,但每個集群大約每年提供12萬GPU小時的計算時間。

不過,超過80GB的GPU內(nèi)存需求是一個瓶頸。目前來說,總共能用的約為5塊H100。

圖片

類似的,這位網(wǎng)友所在的實驗室,也相當富裕:

「我們實驗室有8塊H100和8塊L40S,專供5名博士生和3名博士后免費使用?!?/span>

圖片

最后,截取一些「凡爾賽」網(wǎng)友的發(fā)言。

比如,這位在云計算供應商工作的網(wǎng)友就表示,這個帖子很有趣,因為自己竟不知道H100是這么稀有。

圖片

或者,從單位分不到顯卡,那就干脆自己買一塊。??

圖片

緊俏的H100,為何如此重要

最近,英偉達的市值一度突破3.3萬億美元,登頂全球第一。

這背后最耀眼的明星,莫過于它的H100 GPU了。

圖片

跟普通芯片不同的是,H100內(nèi)的800億個晶體管排列在內(nèi)核中,這些內(nèi)核被調(diào)整為高速處理數(shù)據(jù),而非生成圖形。

成立于1993年的英偉達,押注并行工作的能力有一天將使自己的芯片在游戲之外發(fā)揮價值,他們賭對了。

圖片

在訓練LLM時,H100比前代A100快四倍,在回復用戶提示時快30倍。對于急于訓練LLM執(zhí)行新任務的公司來說,性能優(yōu)勢至關重要。

也正是因此,全世界生成式AI的浪潮,正在轉(zhuǎn)化為英偉達的實際收入。而H100的需求如此之大,以至于許多客戶不得不等待六個月才能收貨。

Nebius AI的IaaS技術產(chǎn)品經(jīng)理Igor,探討了H100、L4、L40、A100、V100這些最流行的芯片之間的差異,并確定了每種GPU模型表現(xiàn)最佳的工作負載。

談到芯片之間的差異之前,重要的是強調(diào)Transformer神經(jīng)網(wǎng)絡和數(shù)值精度的一些相關屬性。

數(shù)值精度的作用

如果沒有對FP8精度的硬件支持,英偉達的H100、L4和L40不可能取得巨大的成功,這對于Transformer模型尤其重要。

但是,是什么讓對FP8的支持如此重要呢?讓我們深入了解一下。

圖片

FP是「浮點」的縮寫,它是關于模型存儲在RAM中,并在其操作中使用的數(shù)字的精度。

最重要的是,這些數(shù)字決定了模型輸出的質(zhì)量。

圖片

以下是一些關鍵的數(shù)字格式——

FP64,即雙精度浮點格式,是一種每個數(shù)字占用64位內(nèi)存的格式。

雖然這種格式未在機器學習中使用,但它在科學領域占有一席之地。

圖片

FP32和FP16:長期以來,F(xiàn)P32是所有深度學習計算的事實標準。

然而,數(shù)據(jù)科學家后來發(fā)現(xiàn),將模型參數(shù)轉(zhuǎn)換為FP16格式,可以減少內(nèi)存消耗并加快計算速度,而且似乎不會影響質(zhì)量。

圖片

結果,F(xiàn)P16就成為了新的黃金標準。

圖片


TF32,也是另一種至關重要的格式。

在進入張量內(nèi)核上處理FP32值的計算之前,這些值可以在驅(qū)動程序級別自動轉(zhuǎn)換為TF32格式,而無需更改代碼。

顯然,TF32雖然略有不同,但能提供更快的計算速度。也就是說,可以通過模型在張量內(nèi)核上解釋FP32的方式進行編碼。

圖片

INT8:這是一種整數(shù)格式,不涉及浮點數(shù)。

訓練后,模型參數(shù)可以轉(zhuǎn)換為其他占用內(nèi)存較少的類型,例如INT8。這種技術稱為訓練后量化,可以減少內(nèi)存需求并加快推理速度。它為許多模型架構創(chuàng)造了奇跡,不過Transformer 是一個例外。

Transformer無法在訓練后進行轉(zhuǎn)換,以降低推理的硬件要求。量化感知訓練等創(chuàng)新技術確實在訓練過程中提供了一種解決方法,但重新訓練現(xiàn)有模型有可能成本高昂,而且極具挑戰(zhàn)性。

圖片

FP8:此格式解決了上述問題,尤其是Transformer模型。

可以采用預訓練的Transformer模型,將其參數(shù)轉(zhuǎn)換為FP8格式,然后從A100切換到H100。

甚至我們可以在不進行轉(zhuǎn)換的情況下做到這一點,并仍然獲得性能,只是因為H100速度更快。

借助FP8,只需大約四分之一的顯卡即可推斷出具有相同性能和負載的相同模型。

另外,使用FP8進行混合精度訓練也很不錯——這個過程會完成得更快,需要更少的RAM,并且在稍后的推理階段不再需要轉(zhuǎn)換,因為模型的參數(shù)可能已經(jīng)是FP8的參數(shù)。

ML、HPC和圖形的關鍵GPU規(guī)格及性能基準

下面讓我們來討論一下,GPU規(guī)格的演變及其突出功能。

圖片

請?zhí)貏e注意上圖中的前兩行:RAM數(shù)量及其帶寬。

ML模型必須緊密適合運行時環(huán)境可訪問的GPU。否則,我們將需要多個GPU進行訓練。在推理過程中,通??梢詫⑺袃?nèi)容都安裝在單個芯片上。

注意SXM和PCIe接口之間的區(qū)別。英偉達的工作人員只是根據(jù)我們自己或我們的云提供商已有的服務器來區(qū)分它們。

如果設置包括帶有PCI插槽的標準服務器,并且不想為GPU直接連接到主板的專用機器(SXM)花錢,那么H100 PCIe就是我們的最佳選擇。

當然,它的規(guī)格可能比SXM版本要弱,但它與標準緊湊型服務器完全兼容。

但是,如果我們想從頭開始構建頂級集群,并且也能負擔得起,那么H100 SXM5顯然是更好的選擇。

各種 GPU 在訓練和推理中的性能指標,則可以依據(jù)下圖——

圖片

圖表源自Tim Dettmers的這篇著名文章《深度學習應該使用哪些GPU:我在深度學習中使用GPU的經(jīng)驗和建議》

H100 SXM指標用作100%基準,所有其他指標均相對于此進行標準化。

該圖表顯示,H100 GPU上的8位推理,比相同GPU模型上的16位推理快37%。這是由于硬件支持FP8精度計算。

所謂「硬件支持」,是指將數(shù)據(jù)從RAM移動到張量核心進行計算的整個低級管線。在此過程中,各種緩存開始發(fā)揮作用。

而在A100中,由于硬件級別不支持FP8,此類GPU上的 8 位推理速度并不會更快。來自RAM 的緩存僅以與FP16格式相同的速度處理數(shù)字。

更詳細的圖表如下——

圖片

你肯定注意到了,某些RTX顯卡在AI任務中的結果也不錯。通常,它們的內(nèi)存比起數(shù)據(jù)中心專用卡要少,并且不支持集群,但它們的價格顯然便宜很多。

所以,如果計劃用于內(nèi)部實驗的本地基礎設施,也可以考慮這類RTX顯卡。

然而,GeForce驅(qū)動程序EULA直接禁止在數(shù)據(jù)中心使用此類卡,所以任何云提供商都無權在服務中使用它們。

現(xiàn)在,我們再比較一下圖形和視頻處理相關任務中的GPU。以下是與此類用例相關的關鍵規(guī)范:

圖片

我們需要再次關注RAM大小和帶寬。另外,還要注意RT核心的獨特性能指標,以及解碼器和編碼器計數(shù),這些專用芯片負責壓縮和解壓縮視頻源。

「圖形模式」行會指示GPU是否可以切換到面向圖形的模式 (WDDM)。

H100完全沒有這個功能;A100有此功能,但也會受限,因此不一定實用。

形成鮮明對比的是,L4和L40配備了這種模式,因此它們被定位為適用于各種任務(包括圖形和訓練)的多功能卡。

英偉達在有些材料中甚至首先將它們作為面向圖形的卡進行營銷。然而,它們也非常適合機器學習和神經(jīng)網(wǎng)絡訓練和推理,至少沒有任何硬性技術障礙。

而用戶來說,這些數(shù)字意味著H100變體以及A100都不適合以圖形為中心的任務。

V100有可能充當處理圖形工作負載虛擬工作站的GPU。

L40是資源最密集的4K游戲體驗無可爭議的冠軍,而L4支持1080p游戲。這兩種卡還能以各自的分辨率渲染視頻。

總結

我們可以得出下表,根據(jù)不同顯卡的設計目的,展示了不同顯卡的特性。

圖片

該表中有兩個主要用例類別:純粹專注于計算的任務(「計算」)和包含可視化的任務(「圖形」)。

我們已經(jīng)知道,A100和H100完全不適合圖形,而L4和L40則是為此量身定制的。

乍一看,你可能會覺得A100或L40的推理能力同樣出色。然而,有一些細微差別需要考慮。

在「HPC」一列中,顯示了是否可以將多個主機合并到單個集群中。

在推理中,很少需要集群——但這取決于模型的大小。關鍵是確保模型適合主機上所有GPU的內(nèi)存。

如果模型超出了此邊界,或者主機無法為其組合RAM容納足夠的GPU,那么就需要GPU集群。

L40和L4的可擴展性受到單個主機功能的限制, H100和A100則沒有這個限制。

我們應該在ML工作負載中選擇哪種GPU呢?推薦如下——


L4:經(jīng)濟實惠的通用GPU,適用于各種用例。它是一款入門級模型,是通往GPU加速計算世界的門戶。

L40:針對生成式AI推理和視覺計算工作負載進行了優(yōu)化。

A100:為傳統(tǒng)CNN網(wǎng)絡的單節(jié)點訓練提供了卓越的性價比。

H100:BigNLP、LLMs和Transformer的最佳選擇。它還非常適合分布式訓練場景以及推理。

圖形場景可分為三組:流式傳輸、虛擬桌面和渲染農(nóng)場。如果沒有視頻輸入模型,那么它就不是圖形場景。這就是推理,而此類任務最好被描述為人工智能視頻。

卡可以處理加密的視頻源,并且A100配備了硬件視頻解碼器來完成此類任務。這些解碼器將饋送轉(zhuǎn)換為數(shù)字格式,使用神經(jīng)網(wǎng)絡對其進行增強,然后將其傳回。

在整個過程中,顯示器上不會出現(xiàn)任何視覺內(nèi)容,因此雖然H100和A100可以熟練地訓練與視頻或圖像相關的模型,但它們實際上并不產(chǎn)生任何視頻。

這就是另一個故事了。

責任編輯:張燕妮 來源: 新智元
相關推薦

2021-08-04 09:48:05

數(shù)字化

2017-03-24 08:58:23

機器學習算法預測

2015-02-06 09:23:52

賽可達實驗室網(wǎng)絡安全

2025-02-21 11:00:00

人工智能AI模型

2011-05-25 17:51:40

2009-09-21 11:45:36

CCIE實驗室考試

2011-07-15 10:10:16

思科虛擬實驗室

2022-04-18 10:07:30

服務器安全設置

2022-01-10 09:47:34

5G運營商電信

2014-11-27 10:52:17

vlan路由

2011-11-25 11:36:40

傲游瀏覽器

2023-08-09 15:11:26

FedoraLinux實驗室

2010-08-23 14:01:25

互聯(lián)網(wǎng)

2013-04-07 09:38:00

HPC硬件HPC高性能計算

2009-09-01 16:41:00

思科認證CCIEEdify

2014-04-08 20:40:01

華為OpenDayligh

2010-01-20 13:20:26

嵌入式設備實驗室

2009-03-20 19:43:33

Nehalem服務器英特爾

2010-02-25 14:07:48

惠普云計算

2011-03-02 11:15:21

WindowsPhon動手實驗室
點贊
收藏

51CTO技術棧公眾號