自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

阿里開源支持十萬億模型的自研分布式訓練框架EPL(EasyParallelLibrary)

原創(chuàng)
開發(fā) 架構(gòu)
EPL背后的技術(shù)框架是如何設計的?開發(fā)者可以怎么使用EPL?EPL未來有哪些規(guī)劃?今天一起來深入了解。

一、導讀

最近阿里云機器學習PAI平臺和達摩院智能計算實驗室一起發(fā)布“低碳版”巨模型M6-10T,模型參數(shù)已經(jīng)從萬億躍遷到10萬億,規(guī)模遠超業(yè)界此前發(fā)布的萬億級模型,成為當前全球最大的AI預訓練模型。同時,做到了業(yè)內(nèi)極致的低碳高效,使用512 GPU在10天內(nèi)即訓練出具有可用水平的10萬億模型。相比之前發(fā)布的大模型GPT-3,M6實現(xiàn)同等參數(shù)規(guī)模,能耗僅為其1%。

M6模型訓練使用的正是阿里云機器學習PAI平臺自研的分布式訓練框架EPL(Easy Parallel Library,原名whale)。EPL通過對不同并行化策略進行統(tǒng)一抽象、封裝,在一套分布式訓練框架中支持多種并行策略,并進行顯存、計算、通信等全方位優(yōu)化來提供易用、高效的分布式訓練框架。

EPL背后的技術(shù)框架是如何設計的?開發(fā)者可以怎么使用EPL?EPL未來有哪些規(guī)劃?今天一起來深入了解。

二、EPL是什么

EPL(Easy Parallel Library)是阿里巴巴最近開源的,統(tǒng)一了多種并行策略、靈活易用的自研分布式深度學習訓練框架。

1.項目背景

近些年隨著深度學習的火爆,模型的參數(shù)規(guī)模也飛速增長,OpenAI數(shù)據(jù)顯示:

  • 2012年以前,模型計算耗時每2年增長一倍,和摩爾定律保持一致;
  • 2012年后,模型計算耗時每3.4個月翻一倍,遠超硬件發(fā)展速度;

近一年來,百億、千億級的參數(shù)模型陸續(xù)面世,谷歌、英偉達、阿里、智源研究院更是發(fā)布了萬億參數(shù)模型。隨著模型參數(shù)規(guī)模的增大,模型效果逐步提高,但同時也為訓練框架帶來更大的挑戰(zhàn)。當前已經(jīng)有一些分布式訓練框架Horovod、Tensorflow Estimator、PyTorch DDP等支持數(shù)據(jù)并行,Gpipe、PipeDream、PipeMare等支持流水并行,Mesh Tensorflow、FlexFlow、OneFlow、MindSpore等支持算子拆分,但當訓練一個超大規(guī)模的模型時還是會面臨一些挑戰(zhàn):

  • 如何簡潔易用:

接入門檻高:用戶實現(xiàn)模型分布式版本難度大、成本高,需要有領域?qū)<医?jīng)驗才能實現(xiàn)高效的分布式并行策略;

最優(yōu)策略難:隨著研究人員設計出越來越靈活的模型以及越來越多的并行加速方法,如果沒有自動并行策略探索支持,用戶很難找到最適合自身的并行策略;

遷移代價大:不同模型適合不同的混合并行策略,但切換并行策略時可能需要切換不同的框架,遷移成本高;

  • 如何提高性價比:

業(yè)界訓練萬億規(guī)模模型需要的資源:英偉達 3072 A100、谷歌 2048 TPU v3,資源成本非常高;

如何降本增效,組合使用各種技術(shù)和方法來減少需要的資源,提高訓練的速度;

為了應對當前分布式訓練的挑戰(zhàn),阿里云機器學習PAI團隊自主研發(fā)了分布式訓練框架EPL,將不同并行化策略進行統(tǒng)一抽象、封裝,在一套分布式訓練框架中支持多種并行策略。同時,EPL提供簡潔易用的接口,用戶只需添加幾行annotation(注釋)即可完成并行策略的配置,不需要改動模型代碼。EPL也可以在用戶無感的情況下,通過進行顯存、計算、通信等全方位優(yōu)化,打造高效的分布式訓練框架。

2.主要特性

  • 多種并行策略統(tǒng)一:在一套分布式訓練框架中支持多種并行策略(數(shù)據(jù)/流水/算子/專家并行)和其各種組合嵌套使用;
  • 接口靈活易用:用戶只需添加幾行代碼就可以使用EPL豐富的分布式并行策略,模型代碼無需修改;
  • 自動并行策略探索:算子拆分時自動探索拆分策略,流水并行時自動探索模型切分策略;
  • 分布式性能更優(yōu):提供了多維度的顯存優(yōu)化、計算優(yōu)化,同時結(jié)合模型結(jié)構(gòu)和網(wǎng)絡拓撲進行調(diào)度和通信優(yōu)化,提供高效的分布式訓練。

3.開源地址見文末

三、EPL主要技術(shù)特點

EPL通過豐富并行化策略、簡單易用的接口、多維度的顯存優(yōu)化技術(shù)和優(yōu)化的計算通信加速技術(shù),讓每一位算法工程師都能輕松訓練分布式大模型任務。

  • 豐富的并行化策略:EPL提供了多種并行化策略及其組合策略,包含數(shù)據(jù)并行、流水并行、算子拆分并行及并行策略的組合嵌套。豐富的策略選擇使得不同的模型結(jié)構(gòu)都能找到最適合自己的分布式訓練方式。
  • 易用性:用戶的模型編程接口和訓練接口均基于TensorFlow,用戶只需在已有的單機單卡模型上做簡單的標記,即可實現(xiàn)不同的分布式策略。EPL設計了兩種簡單的策略接口(replicate/split)來表達分布式策略及混合并行。分布式策略標記的方式讓用戶無需學習新的模型編程接口,僅需幾行代碼即可實現(xiàn)和轉(zhuǎn)換分布式策略,極大降低了分布式框架的使用門檻。
  • 顯存優(yōu)化:EPL提供了多維度的顯存優(yōu)化技術(shù),包含自動重算技術(shù)(Gradient Checkpoint),ZeRO數(shù)據(jù)并行顯存優(yōu)化技術(shù),CPU Offload技術(shù)等,幫助用戶用更少的資源訓練更大的模型。
  • 通信優(yōu)化技術(shù):EPL深度優(yōu)化了分布式通信庫,包括硬件拓撲感知、通信線程池、梯度分組融合、混合精度通信、梯度壓縮等技術(shù)。

1.技術(shù)架構(gòu)

EPL框架如下圖所示,主要分為以下幾個模塊:

  • 接口層:用戶的模型編程接口基于TensorFlow,同時EPL提供了易用的并行化策略表達接口,讓用戶可以組合使用各種混合并行策略;
  • 中間表達層:將用戶模型和并行策略轉(zhuǎn)化成內(nèi)部表達,通過TaskGraph、VirtualDevices和策略抽象來表達各種并行策略;
  • 并行化引擎層:基于中間表達,EPL會對計算圖做策略探索,進行顯存/計算/通信優(yōu)化,并自動生成分布式計算圖;
  • Runtime執(zhí)行引擎:將分布式執(zhí)行圖轉(zhuǎn)成TFGraph,再調(diào)用TF 的Runtime來執(zhí)行;

2.并行化策略表達

EPL通過strategy annotation的方式將模型劃分為多個TaskGraph,并在此基礎上進行并行化。EPL有兩類strategy:replicate 和 split。通過這兩種并行化接口,可以表達出各種不同的并行化策略,例如:

(1)數(shù)據(jù)并行: 下面這個例子是一個數(shù)據(jù)并行的例子,每個模型副本用一張卡來計算。如果用戶申請了8張卡,就是一個并行度為8的數(shù)據(jù)并行任務。

(2) 流水并行:在下面的例子里,模型被切分成2個 TaskGraph, "stage0"和"stage1",用戶可以通過配置pipeline.num_micro_batch參數(shù)來設定pipeline的micro batch數(shù)量。在這個例子里,"stage_0"和"stage_1"組成一個模型副本,共需要2張GPU卡。如果用戶申請了8張卡,EPL會自動在pipeline外嵌套一層并行度為4的數(shù)據(jù)并行(4個pipeline副本并行執(zhí)行)。

(3) 算子拆分并行:在以下例子中,EPL會對split scope下的模型定義做拆分,并放置在不同的GPU卡上做并行計算。

(4)同時,EPL支持對上述并行策略進行組合和嵌套,組成各種混合并行策略,更多示例可以參考開源代碼的文檔和示例。

3.顯存優(yōu)化

當模型增長,GPU的顯存常常成為訓練大模型的瓶頸。EPL提供了多維度的顯存優(yōu)化技術(shù),極大優(yōu)化了訓練顯存消化。

  • 重算 Recomputation (Gradient Checkpoint):正常的DNN前向過程中會生成activation,這部分activation會在后向過程中用于梯度計算。因此,在梯度生成之前,前向的activation會一直存留在顯存中。activation大小和模型結(jié)構(gòu)以及batch size相關,通常占比都非常高。Gradient Checkpoint (GC) 通過保留前向傳播過程中的部分activation,在反向傳播中重算被釋放的activation,用時間換空間。GC中比較重要的一部分是如何選擇合適的checkpoint點,在節(jié)省顯存、保證性能的同時,又不影響收斂性。EPL提供了自動GC功能,用戶可以一鍵開啟GC優(yōu)化功能。
  • ZeRO:在數(shù)據(jù)并行的場景下,每個卡上會存放一個模型副本,optimizer state等,這些信息在每張卡上都是一樣,存在很大的冗余量。當模型變大,很容易超出單卡的顯存限制。在分布式場景下,可以通過類似DeepSpeed ZeRO的思路,將optimizer state和gradient分片存在不同的卡上,從而減少單卡的persistent memory占用。
  • 顯存優(yōu)化的AMP(Auto Mixed Precision):在常規(guī)的AMP里,需要維護一個FP16的weight buffer,對于參數(shù)量比較大的模型,也是不小的開銷。EPL提供了一個顯存優(yōu)化的AMP版本,F(xiàn)P16只有在用的時候才cast,從而節(jié)約顯存。
  • Offload: Offload將訓練的存儲空間從顯存擴展到內(nèi)存甚至磁盤,可以用有限的資源訓練大模型。

同時,EPL支持各種顯存優(yōu)化技術(shù)的組合使用,達到顯存的極致優(yōu)化。阿里云機器學習PAI團隊在T5模型上開啟了GC+ZeRO+顯存優(yōu)化的AMP技術(shù),在性能保持不變的情況下,顯存降低2.6倍。

四、應用場景

EPL適合不同場景的模型,在阿里巴巴內(nèi)部已經(jīng)支持圖像、推薦、語音、視頻、自然語言、多模態(tài)等業(yè)務場景。同時,EPL也支持不同規(guī)模的模型,最大完成了10萬億規(guī)模的M6模型訓練,下面以M6和Bert模型為例進行介紹。

1.萬億/10萬億 M6模型預訓練

訓練一個萬億/10萬億參數(shù)模型,算力需求非常大。為了降低算力需求,EPL中實現(xiàn)了MoE(Mixture-of-Experts)結(jié)構(gòu),MoE的主要特點是稀疏激活,使用Gating(Router)來為輸入選擇Top-k的expert進行計算(k常用取值1、2),從而大大減少算力需求。

EPL支持專家并行(Expert Parallelism, EP),將experts拆分到多個devices上,降低單個device的顯存和算力需求。同時,數(shù)據(jù)并行有利于提升訓練的并發(fā)度,因此,采用數(shù)據(jù)并行+專家并行的混合并行策略來訓練M6模型:MoE layer采用專家并行,其他layer采用數(shù)據(jù)并行。

EPL中提供簡潔易用的接口來進行模型的混合并行訓練,只需要增加幾行annotation(注釋)來配置并行策略,不需要對模型本身做任何修改。例如,M6模型采用數(shù)據(jù)并行+專家并行的策略,只需要增加如下圖的annotation:

同時,為了節(jié)約訓練資源、提高訓練效率,我們采用了EPL的顯存優(yōu)化技術(shù)和計算通信加速技術(shù),包含自動 Gradient Checkpointing節(jié)省activation顯存占用,CPU Offload技術(shù)用于優(yōu)化optimizer states和weight的顯存占用,采用DP+EP混合并行策略降低算力需求,結(jié)合混合精度、編譯優(yōu)化等技術(shù)提高訓練效率等。 借助EPL框架,首次在480 V100 上,3天內(nèi)完成萬億M6模型的預訓練。相比此前業(yè)界訓練同等規(guī)模的模型,此次僅使用480張V100 32G GPU就成功訓練出萬億模型M6,節(jié)省算力資源超80%,且訓練效率提升近11倍。進一步使用512 GPU在10天內(nèi)即訓練出具有可用水平的10萬億模型。

2.流水并行加速Bert Large模型訓練

對于Bert Large模型,結(jié)構(gòu)圖如下圖所示:

由于Bert Large模型對顯存消耗較大,Nvidia V100 16G顯卡上batch size常常只有2-8左右(具體值和Embedding大小、Sequence Length等有關)。Batch size太小會導致算法收斂波動大、收斂效果差的問題。同時,通過數(shù)據(jù)并行模式訓練,通信占比較高,分布式加速效果不理想。

分析Bert Large模型,由24層重復結(jié)構(gòu)的encoder組成,可以使用流水并行進行加速。這里,我們將Bert Large中的Encoder Layer 1~8層、Encoder Layer 9~16層,Encoder Layer 17~24層分別放在不同的卡上進行訓練,并行化后的計算圖如下圖所示:

如此,每張卡訓練時的顯存開銷會減少,從而可以增大batch size以提升收斂加速。另外,針對因模型過大、單卡顯存無法放下所導致的無法訓練的場景,通過Layer間拆分的模型并行方式來進行分布式訓練。通過epl.replicate接口可以實現(xiàn)模型的stage劃分,同時通過流水并行的執(zhí)行調(diào)度來提升并行化性能,如下圖所示:

上述例子是一個流水micro batch mumber為5的情況。通過流水并行優(yōu)化后的時間軸可以看出,在同一個時間上,多張卡可以并行計算。當5個micro batch結(jié)束后,每張卡會將梯度進行本地的累計之后再進行update。與單純的模型并行相比,通過流水的交替執(zhí)行,提高了GPU的利用率。EPL還通過采用Backward-Preferred調(diào)度優(yōu)化策略來提升流水并行性能,降低GPU空閑時間和顯存開銷。

為能夠獲得更高的水平擴展,EPL還支持在流水并行外嵌套數(shù)據(jù)并行來提升訓練吞吐。EPL會自動推導嵌套的數(shù)據(jù)并行的并行度。最新測試結(jié)果顯示,在32卡GPU規(guī)模下,使用EPL的流水+數(shù)據(jù)并行對Bert Large模型進行優(yōu)化,相比于數(shù)據(jù)并行,訓練速度提升了66%。

五、Roadmap

我們決定建設開源生態(tài)主要有如下的考慮:

  • EPL發(fā)源于阿里云內(nèi)部的業(yè)務需求,很好地支持了大規(guī)模、多樣性的業(yè)務場景,在服務內(nèi)部業(yè)務的過程中也積累了大量的經(jīng)驗,在EPL自身隨著業(yè)務需求的迭代逐漸完善的同時,我們也希望能夠開源給社區(qū),將自身積累的經(jīng)驗和理解回饋給社區(qū),希望和深度學習訓練框架的開發(fā)者或深度學習從業(yè)者之間有更多更好的交流和共建,為這個行業(yè)貢獻我們的技術(shù)力量。
  • 我們希望能夠借助開源的工作,收到更多真實業(yè)務場景下的用戶反饋,以幫助我們持續(xù)完善和迭代,并為后續(xù)的工作投入方向提供輸入。
  • 同時,我們希望借助開源的工作,能吸引一些志同道合的同學、公司或組織來參與共建,持續(xù)完善深度學習生態(tài)。

后續(xù),我們計劃以兩個月為單位發(fā)布Release版本。EPL近期的Roadmap如下:

  • 持續(xù)的性能優(yōu)化和穩(wěn)定性改進;
  • 通用算子拆分功能;
  • 自動拆分策略探索的基礎版;
  • 自動流水并行策略探索;

此外,在中長期,我們將在軟硬件一體優(yōu)化、全自動策略探索等幾個探索性的方向上持續(xù)投入精力,也歡迎各種維度的反饋和改進建議以及技術(shù)討論,同時我們十分歡迎和期待對開源社區(qū)建設感興趣的同行一起參與共建。

  • 全自動的模型并行策略探索;
  • 高效的策略探索算法和精準的CostModel評估;
  • eager model下的并行策略探索;
  • 更多新硬件的支持、適配和協(xié)同優(yōu)化;
  • 高效的算子優(yōu)化和集成、極致的顯存優(yōu)化、軟硬一體的通信優(yōu)化;

EPL(Easy Parallel Library)的開源地址:https://github.com/alibaba/EasyParallelLibrary

我們同時提供了model zoo,歡迎大家試用:https://github.com/alibaba/FastNN

責任編輯:武曉燕 來源: 阿里技術(shù)
相關推薦

2021-08-17 11:08:08

參數(shù)M6模型

2023-04-19 16:51:54

分布式Primus開源

2023-06-29 11:06:46

vivoID服務器

2022-05-09 09:30:06

框架開源模型

2018-11-30 11:12:05

騰訊TAPD電商

2010-06-03 19:46:44

Hadoop

2017-09-01 05:35:58

分布式計算存儲

2018-06-07 16:00:28

阿里巴巴語音識別開源

2015-06-01 10:31:43

微軟開源rDSN

2023-10-26 18:10:43

分布式并行技術(shù)系統(tǒng)

2019-01-11 18:22:07

阿里巴巴技術(shù)開源

2019-06-17 23:25:04

NebulasFs架構(gòu)分布式

2015-05-12 13:03:54

開源分布式存儲HDFS

2010-11-23 09:12:18

NVIDIAEchelon

2018-05-19 00:26:13

UAI Train分布式訓練

2023-09-11 15:40:43

鍵值存儲云服務

2019-03-28 11:19:36

存儲

2019-05-05 08:37:39

分布式PyTorchGPU

2021-02-01 09:35:53

關系型數(shù)據(jù)庫模型
點贊
收藏

51CTO技術(shù)棧公眾號