自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

“燒錢”的大模型,如何邁過存儲這道坎?

企業(yè)動態(tài)
算力資源閑置的每一分鐘都是在燃燒經費,倘若可以進一步提高算力資源的利用率,等于間接降低了大模型的訓練成本。要提到算力利用率,必須要邁過的一道坎就是數據讀寫性能的挑戰(zhàn)。

幾乎每一個行業(yè)都在討論大模型,每一個行業(yè)巨頭都在訓練大模型,人工智能已然進入了大模型主導的時代。

想要占領大模型應用的高地,數據和算力可以說是不可或缺的基石。和算力相關的討論已經有很多,以至于英偉達的市值在2023年翻了兩番。同樣不應小覷的還有數據,除了數據量的爆炸性增長,數據的讀取、寫入、傳輸等基礎性能,開始遇到越來越多的新挑戰(zhàn)。

01 “榨干”算力必須邁過的一道坎

在許多人的認知里,訓練大模型是一門燒錢的生意。坊間傳聞,GPT-4的訓練成本高達10億美元,想要讓大模型釋放出應有的“魔法”,“涌現”出對答如流的能力,需要一只“獨角獸”的前期投入。

再具體一些的話,大模型訓練的成本構成中,硬件投資包括算力、運力、存力,其中算力相關硬件投資占比80%。畢竟一顆80GB的A100芯片在國外的定價就高達1.5萬美元左右,一個千億級參數的大模型,往往需要上萬顆A100的算力??稍诂F實的訓練過程中,GPU的平均利用率卻不足50%,制約因素包括大模型參數需要頻繁調優(yōu)、訓練中斷后恢復周期長、數據加載速度慢等等。

不客氣的說,算力資源閑置的每一分鐘都是在燃燒經費,倘若可以進一步提高算力資源的利用率,等于間接降低了大模型的訓練成本。要提到算力利用率,必須要邁過的一道坎就是數據讀寫性能的挑戰(zhàn)。

大模型在訓練過程中,需要先讀取一塊數據,在數據讀取完成后進行訓練,訓練過程中會讀取下一塊數據。如果訓練結束時下一塊數據沒有讀取完成,就會造成一定的等待時間。再加上網絡波動、算力故障導致的訓練中斷,即Checkpoint時刻,重啟訓練會退回到前一個節(jié)點,同樣會產生算力空置的等待時間。

不那么樂觀的是,目前的訓練數據通常以圖片、文檔等小文件的形式存在,意味著在訓練過程中需要頻繁地讀取和寫入數據,并且需要支持快速地隨機訪問。何況大模型訓練的原始數據集動輒幾十個TB,當前文件系統(tǒng)的小文件加載速度不足100MB/s,無形中限制了整個系統(tǒng)的運轉效率。

根據第一性原理,大模型訓練時算力利用率低的誘因是海量的小文件,傳統(tǒng)存儲系統(tǒng)無法高效地處理這些數據,導致加載速度緩慢。大模型訓練的效率要達到極致,減少不必要的浪費,必須在數據上下功夫,準確地說,必須要在數據存儲性能上進行創(chuàng)新。

而華為在高性能NAS存儲上深耕多年,其OceanStor Dorado全閃存NAS擁有業(yè)界領先性能,尤其在海量小文件場景,性能做到了領先業(yè)界30%。

在openEuler開發(fā)者大會2023上,華為還攜手openEuler發(fā)布了NFS+協(xié)議,矛頭直指客戶端訪問OceanStor Dorado NAS的性能,試圖通過引入外置高性能并行文件存儲系統(tǒng),縮短大模型訓練中的等待時間,盡可能把算力的價值“榨”出來。

02 華為NFS+協(xié)議帶來的“屠龍術”

揭開華為NFS+協(xié)議的“面紗”前,似乎有必要回顧下NFS協(xié)議的歷史。作為Sun公司在1984年開發(fā)的分布式文件系統(tǒng)協(xié)議,NFS已經存在了近40年,廣泛應用于金融、EDA仿真、話單、票據影像等行業(yè)。

只是在時間的推移下,“老將”NFS逐漸暴露出了一些短板。比如傳統(tǒng)NFS單個掛載點僅指定一個服務端IP地址,在網口故障或者鏈路故障場景下,可能出現掛載點無法訪問的情況;一端故障時IP無法感知時,僅依靠應用層手動掛載文件系統(tǒng),雙活鏈路無法自動切換;單個掛載點性能受限于單個物理鏈路性能,重要業(yè)務存在性能瓶頸。

大約在兩年前,華為開始了NFS+協(xié)議的研發(fā),著力解決傳統(tǒng)NFS的不足,最終交出了一份“高可靠高可用”的答卷:

一是可靠性。打個比方的話,傳統(tǒng)NFS的客戶端和服務端之間僅有一條路,NFS+協(xié)議允許單個NFS掛載點使用多個IP進行訪問,等于在客戶端和服務端之間修了多條路,巧妙解決了傳統(tǒng)NFS被詬病的“可靠性”問題。

二是多鏈路聚合??蛻舳撕头斩酥g僅有一條路時,一旦出現事故就會導致交通擁堵;而NFS+協(xié)議在選路算法的加持下,實現了單個掛載點在多條鏈路上均衡下發(fā)IO,確保服務端和客戶端的數據傳輸暢通無阻。

三是緩存加速。大模型訓練時,需要將元數據緩存到計算節(jié)點。傳統(tǒng)NFS相對保守,緩存過期的時間比較短。而NFS+協(xié)議改善了緩存大小和失效機制,可以讓元數據更多、更長時間保存在主機側,以滿足大模型訓練的高時延需求。

四是數據視圖同步。正如前面所提到的,大模型訓練需要快速的隨機訪問,NFS+協(xié)議采用了數據視圖同步的方式,大模型訓練需要讀取某個節(jié)點的數據時,直接與對應節(jié)點高效地放置和訪問數據,找到最優(yōu)的訪問鏈路。

做一個總結的話,NFS+協(xié)議采用了高性能并行文件存儲系統(tǒng)的設計,針對海量小文件場景進行了特殊優(yōu)化,比如多鏈路聚合、緩存加速、數據視圖同步等,均在提升海量小文件的讀寫性能,最終在大模型訓練過程中實現“讀寫快、少等待”,減少算力的空置時間。

一組Client測試數據印證了NFS+協(xié)議的路線正確:相較于傳統(tǒng)的文件存儲,訓練樣本小IO隨機讀性能提升了4倍以上,CheckPoint大文件切片+多路徑傳輸提升了4-6倍的帶寬能力,足以滿足大模型訓練的苛刻要求。

03 數據存儲進入到“大模型時代”

某種程度上說,大模型訓練催生的數據存儲性能要求,不過是文件存儲系統(tǒng)加速演變的一個側面。

直到今天,文件存儲的需求仍在不斷更新,文件系統(tǒng)的創(chuàng)新也在持續(xù)發(fā)生,就像大模型訓練需求所折射出的演進方向。

要知道,英偉達的一個訓練節(jié)點,每秒就可以處理2萬張圖片,每個節(jié)點需要8萬IOPS,大模型典型配置有是千億參數千卡,單位時間內對海量小文件的讀寫頻率要求極高。

這恐怕也是華為和openEuler聯合發(fā)布NFS+協(xié)議的原因,市場對于文件系統(tǒng)的創(chuàng)新需求驟然加快,勢必會引發(fā)頭部科技企業(yè)圍繞數據存儲的“軍備競賽”,華為無疑是這場競賽中沖在最前面的玩家之一。

但對文件存儲系統(tǒng)的市場格局稍作了解的話,華為自研NFS+協(xié)議,還隱藏著另一重深意。

一方面,Lustre、GFPS、BeeGFS等并行系統(tǒng)的MDS方案,將元數據和文件數據訪問分開,仍存在性能和可靠性的瓶頸;而NFS+協(xié)議的元數據不再聚焦于某個性能節(jié)點,而是分配到集群的所有節(jié)點里面,可以在主機側實現多連接,消除了大模型語境下高頻處理小文件的底層瓶頸。

另一方面,站在大多數用戶的角度上,NFS+協(xié)議可以更好的兼容已有的使用習慣,原先建立在傳統(tǒng)NFS上的運維機制和知識體系不作廢,文件系統(tǒng)的切換過程更平緩,不用修改操作系統(tǒng)數據面,即可讓NAS存儲訪問性能提升6倍、可靠性提升3倍,以極低的成本擁抱大模型訓推浪潮。

無可否認的是,大模型正在從前臺的“火熱”,轉向整個產業(yè)鏈條的協(xié)同驅動,數據存儲正是其中的關鍵一環(huán)。

在這樣的趨勢下,行業(yè)注意力將從“煉?!币徊讲睫D向更高效、更快速的“煉模”,海量小文件的采集和加載性能、算力資源的利用率等指標,將被越來越多的企業(yè)所關注,勢必會掀起一場化繁為簡的文件存儲革命。

責任編輯:張誠
相關推薦

2015-11-23 11:30:25

2021-03-09 09:49:59

工業(yè)互聯網5G網絡

2022-08-19 15:02:38

AI模型

2012-09-19 10:46:13

服務器IBM大數據

2018-03-19 09:59:24

數據保護大數據云計算

2020-05-27 09:30:52

算法工程師程序員

2015-04-21 11:04:18

NFV網絡功能虛擬化

2024-04-15 13:51:03

模型LLMLLMs

2024-07-01 21:06:10

2024-09-02 09:30:49

2023-09-25 10:19:01

模型App開源

2023-05-26 13:22:49

2023-07-14 13:49:18

OceanStor華為

2016-01-07 11:05:00

Saas創(chuàng)業(yè)

2024-09-27 14:26:52

2012-10-10 13:23:24

2024-05-23 12:55:40

2025-04-01 09:54:09

AI算法大模型AI
點贊
收藏

51CTO技術棧公眾號