自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

AI訓練的最大障礙不是算力,而是“內(nèi)存墻”

新聞 人工智能
AI加速器通常會簡化或刪除其他部分,以提高硬件的峰值計算能力,但是卻難以解決在內(nèi)存和通信上的難題。

 [[390958]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

AI訓練的計算量每年都在大幅增長,最近有研究指出,AI訓練未來的瓶頸不是算力,而是GPU內(nèi)存。

AI加速器通常會簡化或刪除其他部分,以提高硬件的峰值計算能力,但是卻難以解決在內(nèi)存和通信上的難題。

無論是芯片內(nèi)部、芯片間,還是AI加速器之間的通信,都已成為AI訓練的瓶頸。

Transformer模型中的參數(shù)數(shù)量(紅色)呈現(xiàn)出2年240倍的超指數(shù)增長,而單個GPU內(nèi)存(綠色)僅以每2年2倍的速度擴大。

△多年來SOTA模型的參數(shù)數(shù)量(紅點)以及AI加速器存儲容量(綠點)的演變

訓練AI模型的內(nèi)存需求,通常是參數(shù)數(shù)量的幾倍。因為訓練需要存儲中間激活,通常會比參數(shù)(不含嵌入)數(shù)量增加3-4倍的內(nèi)存。

于是,AI訓練不可避免地撞上了“內(nèi)存墻”(Memory Wall),內(nèi)存墻不僅是內(nèi)存容量,也包括內(nèi)存?zhèn)鬏攷挕?/p>

在很多情況下,數(shù)據(jù)傳輸?shù)娜萘亢退俣?,都沒有觸摸到內(nèi)存墻。

△訓練不同神經(jīng)網(wǎng)絡模型所需的內(nèi)存量

從圖中可以看出,每當GPU內(nèi)存容量增加時,開發(fā)人員就會設計出新模型;

2019年GPT-2所需的內(nèi)存容量,已經(jīng)是2012年的AlexNet的7倍以上;

自谷歌團隊在2017年提出Transformer,模型所需的內(nèi)存容量開始大幅增長。

為什么不能靠多GPU堆顯存

那么,為了擺脫單個硬件的有限內(nèi)存容量和帶寬,是否可以將訓練擴展到多個AI加速器,使用分布式內(nèi)存呢?

事實上,這樣做也會面臨內(nèi)存墻的問題,神經(jīng)網(wǎng)絡加速器之間移動數(shù)據(jù)的通信瓶頸,甚至比芯片上的數(shù)據(jù)移動還慢且低效。

與單系統(tǒng)內(nèi)存的情況類似,擴展帶寬的技術(shù)難題還尚未被攻克。僅在很少的通信和數(shù)據(jù)傳輸?shù)那闆r下,橫向擴展才適用于計算密集型問題。

從圖中可以看出,20年間,運算設備的算力提高了90,000倍;

雖然存儲器從DDR發(fā)展到GDDR6x,能夠用于顯卡、游戲終端和高性能運算,接口標準也從PCIe1.0a升級到NVLink3.0;

但是和算力的提高幅度相比,通訊帶寬的增長只有30倍,可以說非常緩慢。

由于算力和內(nèi)存之間的差距越來越大,訓練更大的模型也會更加困難。

怎樣突破“內(nèi)存墻”

怎樣解決內(nèi)存限制問題?作者從三個方面進行了分析。

訓練算法的改進

訓練神經(jīng)網(wǎng)絡模型的一大挑戰(zhàn),就是要進行蠻力超參數(shù)調(diào)整。雖然可以通過二階隨機優(yōu)化方法來實現(xiàn),不過目前的方法卻增加了3-4倍的內(nèi)存占用,這一點仍需解決。

微軟的Zero方法(一種萬億級模型參數(shù)訓練方法),實現(xiàn)了在相同內(nèi)存下,通過去除多余的優(yōu)化狀態(tài)變量,來訓練8倍大的模型。

也可以在傳遞過程中只存儲或檢查激活的子集,而不保存所有激活,以此將內(nèi)存占用減少5倍,不過需要增加20%的計算量。

此外,從單精度算法到半精度(FP16)算法的進展,使硬件計算能力提高了10倍以上,可以進一步研究適合INT8精讀訓練的優(yōu)化算法。

高效部署

最新的SOTA模型(例如:GPT-3)需要分布式內(nèi)存部署,這是一個很大的挑戰(zhàn)??梢酝ㄟ^降低精度或刪除其冗余參數(shù),來壓縮這些模型,以進行推理。

在訓練或推理過程中,可以降低至INT4精度,模型占用空間和延遲能夠減少8倍。不過,想要將訓練精度降低到遠低于FP16,仍然很困難。

而刪除冗余參數(shù),則可能導致準確率下降。當前的方法能夠修剪30%的具有結(jié)構(gòu)化稀疏性的神經(jīng)元,以及80%的具有非結(jié)構(gòu)化稀疏性的神經(jīng)元,以保證對準確性的影響最小。

AI加速器的設計

雖然很難同時提高存儲帶寬和峰值計算能力,但是可以犧牲峰值計算,以獲得更好的帶寬。

在帶寬受限問題上,CPU的性能要比GPU好得多,但是與相比GPU相比,CPU的峰值計算能力要小一個數(shù)量級左右。

因此,可以研究一種在二者之間的另一種架構(gòu),實現(xiàn)更高效的緩存。

 

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2019-05-06 14:30:40

AI人工智能

2024-01-16 09:00:00

人工智能智能巡檢物聯(lián)網(wǎng)

2014-09-01 15:15:33

MSN微軟

2023-01-05 16:48:24

2021-11-10 10:10:28

勒索軟件惡意軟件安全

2024-03-20 11:07:57

AI計算CPUGPU

2024-01-25 16:50:37

2017-03-27 10:00:23

2011-03-14 16:46:18

2021-10-02 11:06:42

AI人工智能

2023-02-15 16:22:10

人工智能ChatGPT模型開發(fā)

2012-11-16 09:32:26

NoSQLMongoDB云服務

2020-02-12 22:20:39

人臉識別人工智能AI

2023-07-03 07:21:23

軟件敏捷編碼

2012-04-20 11:06:26

開發(fā)創(chuàng)新

2024-07-01 10:16:44

2024-09-10 07:34:47

點贊
收藏

51CTO技術(shù)棧公眾號