自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

讓模型訓(xùn)練速度提升兩到四倍,「彩票假設(shè)」作者的這個全新PyTorch庫火了

人工智能 新聞
登陸 GitHub 以來,這個項目已經(jīng)收獲了 800 多個 Star。

隨著越來越多的企業(yè)轉(zhuǎn)向人工智能來完成各種各樣的任務(wù),企業(yè)很快發(fā)現(xiàn),訓(xùn)練人工智能模型是昂貴的、困難的和耗時的。

一家公司 MosaicML 的目標正是找到一種新的方法來應(yīng)對這些層出不窮的挑戰(zhàn)。近日, MosaicML 推出了一個用于高效神經(jīng)網(wǎng)絡(luò)訓(xùn)練的 PyTorch 庫「Composer」,旨在更快地訓(xùn)練模型、降低成本,并獲得表現(xiàn)更好的模型。

Composer 是一個用 PyTorch 編寫的開源庫,旨在集成更好的算法來加速深度學(xué)習(xí)模型的訓(xùn)練,同時實現(xiàn)更低的成本和更高的準確度。目前項目在 GitHub 平臺已經(jīng)收獲了超過 800 個 Star。

項目地址:https://github.com/mosaicml/composer

Composer 具有一個功能界面(類似于 torch.nn.functional),用戶可以將其集成到自己的訓(xùn)練循環(huán)中;它還包含一個 Trainer,可以將高效的訓(xùn)練算法無縫集成到訓(xùn)練循環(huán)中。

項目中已經(jīng)部署了 20 幾種加速方法,只需幾行代碼就能應(yīng)用在用戶的訓(xùn)練之中,或者與內(nèi)置 Trainer 一起使用。

總體而言,Composer 具備幾個亮點:

  • 20 多種加速計算機視覺和語言建模訓(xùn)練網(wǎng)絡(luò)的方法。當 Composer 為你完成工作時,你就不需要浪費時間嘗試復(fù)現(xiàn)研究論文。
  • 一個易于使用的 Trainer,其編寫的目的是盡可能提高性能,并集成了高效訓(xùn)練的最佳實踐。
  • 所有加速方法的功能形式,都允許用戶將它們集成到現(xiàn)有的訓(xùn)練循環(huán)中。
  • 強大、可重現(xiàn)的基線,讓你盡可能地快開始工作。

那么,使用 Composer 能夠獲得怎樣的訓(xùn)練效果提升呢?


多個模型系列的訓(xùn)練中減少的時間和成本。

據(jù)項目信息介紹,使用 Composer 訓(xùn)練,你可以做到:

  • ResNet-101 在 ImageNet 上的準確率在 1 小時 30 分鐘內(nèi)達到 78.1%(AWS 上 49 美元),比基線快 3.5 倍,便宜 71%。
  • ResNet-50 在 ImageNet 上的準確率在 1 小時 14 分鐘內(nèi)達到 76.51%(AWS 上 40 美元),比基線快 2.9 倍,便宜 65%。
  • 在 4 小時 27 分鐘內(nèi)將 GPT-2 在 OpenWebText 上的困惑度提高到 24.11(AWS 上 145 美元),比基線快 1.7 倍,便宜 43%。

在 Reddit 社區(qū),項目作者 Jonathan Frankle 現(xiàn)身說法,他介紹說,Composer 是自己關(guān)于彩票假設(shè)研究的直接延續(xù)。



2019 年,F(xiàn)rankle 和 Carbin 的《The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks》獲得了 ICLR 2019 的最佳論文榮譽。在這篇論文中,F(xiàn)rankle 等人發(fā)現(xiàn)標準的剪枝技術(shù)會自然地發(fā)現(xiàn)子網(wǎng)絡(luò),這些子網(wǎng)絡(luò)經(jīng)過初始化后能夠有效進行訓(xùn)練。二人基于這些結(jié)果提出了「彩票假設(shè)」(lottery ticket hypothesis):密集、隨機初始化的前饋網(wǎng)絡(luò)包含子網(wǎng)絡(luò)(「中獎彩票」),當獨立訓(xùn)練時,這些子網(wǎng)絡(luò)能夠在相似的迭代次數(shù)內(nèi)達到與原始網(wǎng)絡(luò)相當?shù)臏y試準確率。

目前,F(xiàn)rankle 是 Mosaic 公司的首席科學(xué)家,推動了 Composer 的打造。

這次,F(xiàn)rankle 表示,深度學(xué)習(xí)背后的「數(shù)學(xué)」并沒有什么神圣之處。從根本上改變「數(shù)學(xué)」是完全沒問題的(比如刪除很多權(quán)重)。你將獲得與其他方式不同的網(wǎng)絡(luò),但這不像原始網(wǎng)絡(luò)是「正確的」網(wǎng)絡(luò)。如果改變「數(shù)學(xué)」讓你的網(wǎng)絡(luò)變得同樣好(例如同樣的準確性)而速度更快,那就是勝利。

如果你愿意打破深度學(xué)習(xí)背后的「數(shù)學(xué)」,彩票假設(shè)就是一個例子。Composer 有幾十種技術(shù)可以做到這一點,并且擁有與之匹配的加速。

同時,項目作者們也將 Composer 與 PyTorch Lightning 進行了對比:「PyTorch Lightning 是一個具有不同 API 的不同訓(xùn)練庫。實際上,我們在 PTL 之上構(gòu)建了我們的第一個 Composer 實現(xiàn)?!?/span>


PyTorch Lightning 的創(chuàng)建者 William Falcon 也出現(xiàn)在了后續(xù)討論中,但二人似乎未達成共識。

目前,Composer 的訓(xùn)練器可以應(yīng)用于眾多模型,包括對于 Resnet-50、Resnet-101、UNet 和 GPT-2 的加速。



作者表示,未來還將擴展至更多模型,比如 ViT、BERT、分割和目標檢測等等。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2025-01-13 12:30:00

C++開發(fā)編譯

2024-03-18 09:02:53

AI模型

2021-09-30 11:27:58

模型人工智能神經(jīng)網(wǎng)絡(luò)

2022-12-14 11:33:29

虹膜生物識別生物識別

2024-04-10 08:00:00

PostgresNoSQL

2022-07-18 17:37:27

字節(jié)跳動人工智能AI模型

2024-07-25 08:25:35

2024-11-27 14:30:00

模型訓(xùn)練

2011-06-03 10:19:40

思科互聯(lián)網(wǎng)流量

2023-12-29 14:13:41

PyTorch模型開發(fā)

2024-11-13 09:29:41

SpringCRaCCRIU

2022-12-05 10:01:41

代碼模型

2024-06-12 08:08:08

2020-11-20 10:40:20

PyTorch神經(jīng)網(wǎng)絡(luò)代碼

2022-02-25 23:46:16

神經(jīng)網(wǎng)絡(luò)機器學(xué)習(xí)AI

2023-10-18 07:59:05

人工智能大語言模型

2022-12-13 08:45:01

3F傾聽模型

2023-07-18 14:19:00

模型AI

2012-08-17 10:49:21

2015-05-06 10:22:39

802.11協(xié)議802.11ax
點贊
收藏

51CTO技術(shù)棧公眾號