自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

OpenAI上新sCM!生成速度提升50倍,Scaling Law 再創(chuàng)奇跡:兩步采樣就出圖,實時視頻時代或?qū)㈤_啟!

原創(chuàng) 精選
人工智能
FID作為衡量樣本質(zhì)量的指標(biāo)本身也有局限性;接近的FID分?jǐn)?shù)并不總是反映實際的樣本質(zhì)量,反之亦然。因此,sCM的質(zhì)量可能需要根據(jù)特定應(yīng)用的需求以不同方式進(jìn)行評估。

傳統(tǒng)擴散模型要過時了?OpenAI找到一種新方法,直接把生成速度提高50倍!

擴散模型在生成式 AI 領(lǐng)域的重要性不言而喻,把生成逼真的圖像、3D 模型、音頻和視頻變?yōu)榱爽F(xiàn)實。

但是,擴散模型依然有個致命bug——采樣速度太慢。

OpenAI研究的新方法,被稱為 sCM(連續(xù)時間一致性模型)。

sCM 在僅使用兩個采樣步驟的情況下,實現(xiàn)了與領(lǐng)先擴散模型相當(dāng)?shù)臉颖举|(zhì)量。

來感受下 sCM 的速度:

那么sCM為什么這么快呢,我們一起看看。

1.提速50倍:Scaling Law 再次出奇跡

在剛才的實例里,右側(cè)蝴蝶逐步清晰,展示了當(dāng)前擴散模型的能力。

該方法的采樣通常需要數(shù)十到數(shù)百個連續(xù)步驟來生成單個樣本,這限制了它們在實時應(yīng)用中的效率和可擴展性。

雖然,此前已經(jīng)開發(fā)了各種蒸餾技術(shù)來加速采樣,但它們往往伴隨著一些限制,例如高計算成本、復(fù)雜的訓(xùn)練過程和降低的樣本質(zhì)量。

而sCM則不同,在此前一致性模型的研究基礎(chǔ)上,OpenAI簡化了公式,并進(jìn)一步穩(wěn)定了連續(xù)時間一致性模型的訓(xùn)練過程。

不得不說,Scaling Law 還是大力出奇跡。

這個方法一下使得OpenAI研究人員能將連續(xù)時間一致性模型的訓(xùn)練擴展到前所未有的規(guī)模!

具體有多大呢?——在 ImageNet 數(shù)據(jù)集上以 512×512 分辨率處理 15 億參數(shù)的模型。

sCM 僅使用兩個采樣步驟就能生成與擴散模型相當(dāng)?shù)臉颖举|(zhì)量,實現(xiàn)了大約 50 倍的時間加速。例如,OpenAI的最大模型(15 億參數(shù))在一塊 A100 GPU 上只需 0.11 秒即可生成一個樣本,而無需任何推理優(yōu)化。

OpenAI這波太牛了,通過系統(tǒng)優(yōu)化,這個提速來得迅猛又輕松,感覺再升級的DALL-E 4已經(jīng)不遠(yuǎn)了!

報告還提到,為了進(jìn)行嚴(yán)格的評估,OpenAI研究者通過比較樣本質(zhì)量(使用標(biāo)準(zhǔn)的 FID 得分,分?jǐn)?shù)越低越好)和有效采樣計算(估算生成每個樣本所需的總計算成本)來對 sCM 與其他最先進(jìn)的生成模型進(jìn)行了基準(zhǔn)測試。

結(jié)果如下所示,兩步 sCM 生成的樣本質(zhì)量可與最佳的先前方法相媲美,而其有效采樣計算成本不到 10%,大大加快了采樣過程。

圖片圖片

2.工作原理揭秘:為什么一致性模型能提速?

一致性模型與擴散模型不同:擴散模型需要通過大量去噪步驟逐步生成樣本;而一致性模型的目標(biāo)是在一步中將噪聲直接轉(zhuǎn)換為無噪聲的樣本。

看圖表會更加直觀,下圖中:藍(lán)線代表擴散模型逐步采樣的過程,而紅線則展示了一致性模型更直接、加速的采樣路徑。

通過使用一致性訓(xùn)練或一致性蒸餾等技術(shù),一致性模型可以被訓(xùn)練成在顯著減少步驟的情況下生成高質(zhì)量樣本,這使它們在需要快速生成的實際應(yīng)用中極具吸引力。

圖片圖片

在研究中,OpenAI團(tuán)隊在ImageNet 512x512上訓(xùn)練了一個具有15億參數(shù)的連續(xù)時間一致性模型,以下是一些兩步采樣結(jié)果。

圖片圖片

sCM的訓(xùn)練方式也很有趣,——偷師擴散模型,即通過從一個預(yù)訓(xùn)練的擴散模型中提取知識得以訓(xùn)練。

一個重要的發(fā)現(xiàn)是,隨著sCM和教師擴散模型的共同擴展,sCM的性能按比例提高。具體來說,樣本質(zhì)量的相對差異(通過FID分?jǐn)?shù)比率來衡量)在不同規(guī)模的模型中保持一致,這導(dǎo)致樣本質(zhì)量的絕對差異在模型擴展時逐漸減小。此外,增加sCM的采樣步驟進(jìn)一步縮小了質(zhì)量差距。值得注意的是,sCM的兩步采樣已經(jīng)與教師擴散模型的采樣質(zhì)量相當(dāng)(相對差異不到10%),而教師擴散模型需要數(shù)百步才能生成樣本。

圖片圖片

3.寫在最后:仍有缺陷,仍需探索

從上圖也可以看出,目前最好的sCM仍然依賴于預(yù)訓(xùn)練的擴散模型進(jìn)行初始化和蒸餾,因此與教師擴散模型相比,樣本質(zhì)量仍存在小而持續(xù)的差距。

此外,報告中寫道,F(xiàn)ID作為衡量樣本質(zhì)量的指標(biāo)本身也有局限性;接近的FID分?jǐn)?shù)并不總是反映實際的樣本質(zhì)量,反之亦然。因此,sCM的質(zhì)量可能需要根據(jù)特定應(yīng)用的需求以不同方式進(jìn)行評估。

OpenAI表示,將繼續(xù)致力于開發(fā)具有更快推理速度和更高樣本質(zhì)量的生成模型,相信這些進(jìn)展將為實時、高質(zhì)量生成式AI在廣泛領(lǐng)域中的應(yīng)用開啟新的可能性。

想了解更多AIGC的內(nèi)容,請訪問:

51CTO AI.x社區(qū)

http://www.scjtxx.cn/aigc/

責(zé)任編輯:武曉燕 來源: 51CTO技術(shù)棧
相關(guān)推薦

2022-10-20 15:38:02

谷歌模型

2024-09-11 12:31:59

2024-09-09 13:50:00

2024-11-14 18:40:57

2024-12-16 07:15:00

2017-05-11 11:30:43

MySQL查詢速度

2013-04-18 11:07:31

2009-12-21 18:02:02

WCF狀態(tài)保存

2024-09-02 14:30:00

數(shù)據(jù)訓(xùn)練

2009-04-09 19:09:17

多核思科虛擬化

2024-11-11 17:35:11

2024-11-12 13:07:44

2009-10-21 16:40:43

Oracle用戶表空間

2010-09-06 15:56:12

PPPOE Serve

2025-03-14 11:18:19

2025-01-13 12:30:00

C++開發(fā)編譯

2021-04-14 15:03:16

數(shù)據(jù)性能存儲

2024-04-17 13:22:55

人工智能

2019-07-29 20:01:53

量子計算機芯片超算

2010-07-13 10:52:02

點贊
收藏

51CTO技術(shù)棧公眾號