最高優(yōu)化529.22倍!豆包大模型團隊&港大新成果ByteCheckpoint為LLM萬卡訓練提效
近日,字節(jié)跳動豆包大模型團隊與香港大學聯(lián)合提出了ByteCheckpoint大模型Checkpointing系統(tǒng),旨在提升大模型訓練效率、減少訓練進度損失。
隨著訓練規(guī)模與模型大小的日益增長,克服軟硬件故障,提高訓練效率成為大模型迭代的重要影響要素。近期,Meta官方報告中披露的一組大模型萬卡集群訓練故障率數(shù)據(jù)引起業(yè)內廣泛關注,數(shù)據(jù)顯示:在 16384 塊 H100 80GB 訓練集群上進行 Llama3 405B 訓練的故障率——短短 54 天,發(fā)生 419 次中斷,平均每三小時崩潰一次。該報告同時提到,為了對抗高故障率,需要在訓練過程中頻繁地進行 Checkpoint ,保存訓練中的模型、優(yōu)化器、數(shù)據(jù)讀取器狀態(tài),減少訓練進度損失。可以說Checkpoint 已成為訓練提效關鍵。
然而,現(xiàn)有的 Checkpoint 相關技術存在諸多問題,如系統(tǒng)設計缺陷導致額外的 I/O 開銷增加、不同訓練框架的 Checkpoint 模塊相互割裂等。
豆包大模型團隊和香港大學此次聯(lián)合提出的ByteCheckpoint能有效解決上述問題。ByteCheckpoint為PyTorch 原生,能兼容多個訓練框架,支持Checkpoint的高效讀寫和自動重新切分。與基線方法相比,ByteCheckpoint 在 Checkpoint 保存上性能提升高達 529.22 倍,在加載上,性能提升高達 3.51 倍。極簡的用戶接口和 Checkpoint 自動重新切分功能,顯著降低了用戶上手和使用成本,提高了系統(tǒng)的易用性。目前論文成果已公開:
·ByteCheckpoint: A Unified Checkpointing System for LLM Development
·論文鏈接:https://team.doubao.com/zh/publication/bytecheckpoint-a-unified-checkpointing-system-for-llm-development?view_from=research
字節(jié)跳動豆包大模型團隊成立于2023年,致力于開發(fā)業(yè)界最先進的AI大模型技術,成為世界一流的研究團隊,為科技和社會發(fā)展作出貢獻。目前,豆包大模型團隊正在持續(xù)吸引優(yōu)秀人才加入,希望與具備創(chuàng)新精神、責任心的技術人才一起,推進大模型訓練提效工作取得更多進展和成果。
據(jù)了解,豆包大模型于2024年5月正式發(fā)布,現(xiàn)已通過字節(jié)跳動旗下云服務平臺火山引擎面向企業(yè)提供服務。截至7月,豆包大模型日均Tokens使用量已超5000億,外部企業(yè)客戶日均Tokens使用量較5月15日模型發(fā)布時期增長22倍?;诙拱竽P痛蛟斓耐鸄I智能助手豆包,在各大應用商店AI類產品的下載量排名第一。