自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

字節(jié)萬卡集群技術(shù)細(xì)節(jié)公開:2天搞定GPT-3訓(xùn)練,算力利用率超英偉達(dá)Megatron-LM

人工智能 新聞
文章披露,字節(jié)搭建起的萬卡集群,能在1.75天內(nèi)完成GPT-3規(guī)模模型(175B)的訓(xùn)練。

隨著對Sora技術(shù)分析的展開,AI基礎(chǔ)設(shè)施的重要性愈發(fā)凸顯。

來自字節(jié)和北大的一篇新論文在此時吸引關(guān)注:

文章披露,字節(jié)搭建起的萬卡集群,能在1.75天內(nèi)完成GPT-3規(guī)模模型(175B)的訓(xùn)練。

圖片

具體來說,字節(jié)提出了一個名為MegaScale的生產(chǎn)系統(tǒng),旨在解決在萬卡集群上訓(xùn)練大模型時面臨的效率和穩(wěn)定性挑戰(zhàn)。

在12288塊GPU上訓(xùn)練1750億參數(shù)大語言模型時,MegaScale實(shí)現(xiàn)了55.2%的算力利用率(MFU),是英偉達(dá)Megatron-LM的1.34倍。

論文還透露,截止2023年9月,字節(jié)已建立起超過1萬張卡的Ampere架構(gòu)GPU(A100/A800)集群,目前正在建設(shè)大規(guī)模Hopper架構(gòu)(H100/H800)集群。

適用于萬卡集群的生產(chǎn)系統(tǒng)

大模型時代,GPU的重要性已無需贅述。

但大模型的訓(xùn)練,并不是把卡的數(shù)量拉滿就能直接開干的——當(dāng)GPU集群的規(guī)模來到“萬”字級別,如何實(shí)現(xiàn)高效、穩(wěn)定的訓(xùn)練,本身就是一個頗具挑戰(zhàn)的工程問題。

第一重挑戰(zhàn):效率。

訓(xùn)練大語言模型并非簡單的并行任務(wù),需要在多個GPU之間分布模型,并且這些GPU需要頻繁通信才能共同推進(jìn)訓(xùn)練進(jìn)程。通信之外,操作符優(yōu)化、數(shù)據(jù)預(yù)處理和GPU內(nèi)存消耗等因素,都對算力利用率(MFU)這個衡量訓(xùn)練效率的指標(biāo)有影響。

MFU是實(shí)際吞吐量與理論最大吞吐量之比。

第二重挑戰(zhàn):穩(wěn)定性。

我們知道,訓(xùn)練大語言模型往往需要花費(fèi)非常長的時間,這也意味著,訓(xùn)練過程中失敗和延遲的現(xiàn)象并不鮮見。

失敗的成本是高昂的,因此如何縮短故障恢復(fù)時間變得尤為重要。

為了應(yīng)對這些挑戰(zhàn),字節(jié)跳動的研究人員構(gòu)建了MegaScale,并已將其部署到字節(jié)的數(shù)據(jù)中心中,用以支持各種大模型的訓(xùn)練。

MegaScale是在英偉達(dá)Megatron-LM的基礎(chǔ)上改進(jìn)的。

圖片

具體改進(jìn)包括,算法和系統(tǒng)組件的共同設(shè)計、通信和計算重疊的優(yōu)化、操作符優(yōu)化、數(shù)據(jù)流水線優(yōu)化以及網(wǎng)絡(luò)性能調(diào)優(yōu)等:

  • 算法優(yōu)化:研究人員在模型架構(gòu)中引入并行化的Transformer塊、滑動窗口注意力機(jī)制(SWA)和LAMB優(yōu)化器,來提高訓(xùn)練效率而不犧牲模型的收斂性。
  • 通信重疊:基于對3D并行(數(shù)據(jù)并行、流水線并行、張量并行)中各個計算單元操作的具體分析,研究人員設(shè)計技術(shù)策略有效地減少了非關(guān)鍵執(zhí)行路徑上操作所帶來的延遲,縮短了模型訓(xùn)練中每一輪的迭代時間。
  • 高效操作符:對GEMM操作符進(jìn)行了優(yōu)化,對LayerNorm和GeLU等操作進(jìn)行了融合,以減少啟動多個內(nèi)核的開銷,并優(yōu)化內(nèi)存訪問模式。
  • 數(shù)據(jù)流水線優(yōu)化:通過異步數(shù)據(jù)預(yù)處理和消除冗余的數(shù)據(jù)加載器,來優(yōu)化數(shù)據(jù)預(yù)處理和加載,減少GPU空閑時間。
  • 集體通信群初始化:優(yōu)化了分布式訓(xùn)練中英偉達(dá)多卡通信框架NCCL初始化的過程。在未經(jīng)優(yōu)化的情況下,2048張GPU的集群初始化時間是1047秒,優(yōu)化后可降至5秒以下;萬卡GPU集群的初始化時間則可降至30秒以下。
  • 網(wǎng)絡(luò)性能調(diào)優(yōu):分析了3D并行中的機(jī)器間流量,設(shè)計技術(shù)方案提高網(wǎng)絡(luò)性能,包括網(wǎng)絡(luò)拓?fù)湓O(shè)計、減少ECMP哈希沖突、擁塞控制和重傳超時設(shè)置。
  • 故障容忍:在萬卡集群中,軟硬件故障難以避免。研究人員設(shè)計了一個訓(xùn)練框架,來實(shí)現(xiàn)自動故障識別和快速恢復(fù)。具體包括,開發(fā)診斷工具來監(jiān)控系統(tǒng)組件和事件、優(yōu)化checkpoint高頻保存訓(xùn)練進(jìn)程等。

論文提到,MegaScale能夠自動檢測和修復(fù)超過90%的軟硬件故障。

圖片

實(shí)驗(yàn)結(jié)果表明,MegaScale在12288個GPU上訓(xùn)練175B大語言模型時,實(shí)現(xiàn)了55.2%的MFU,是Megatrion-LM算力利用率的1.34倍。

訓(xùn)練530B大語言模型的MFU對比結(jié)果如下:

圖片

One More Thing

就在這篇技術(shù)論文引發(fā)討論之際,字節(jié)類Sora產(chǎn)品也傳出了新消息:

剪映旗下類似Sora的AI視頻工具已經(jīng)啟動邀請內(nèi)測。

圖片

看樣子地基已經(jīng)打好,那么對于字節(jié)的大模型產(chǎn)品,你期待嗎?

論文地址:https://arxiv.org/abs/2402.15627

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2022-01-20 15:56:14

AI訓(xùn)練GPU

2024-10-09 14:52:00

2022-03-14 09:33:56

神經(jīng)網(wǎng)絡(luò)模型人工智能

2020-04-03 09:05:43

麻將 AI Suphx神經(jīng)網(wǎng)絡(luò)

2023-05-08 07:20:22

Doris分析型數(shù)據(jù)庫

2023-04-06 09:37:22

谷歌AI

2020-12-18 15:29:19

AI 算力人工智能

2023-11-27 19:37:51

CPU云原生

2024-01-03 07:47:18

CPU規(guī)?;?/a>技術(shù)

2022-03-02 11:39:15

分布式計算聯(lián)邦學(xué)習(xí)

2022-05-05 09:00:00

AI模型數(shù)據(jù)

2021-03-23 15:21:00

人工智能機(jī)器學(xué)習(xí)技術(shù)

2025-03-12 14:40:53

2022-06-01 16:47:53

AI模型開源

2024-01-15 07:10:00

超算訓(xùn)練

2011-04-18 09:35:23

Windows 8

2024-07-12 11:35:49

2025-01-10 14:15:47

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號