自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

何愷明新作再戰(zhàn)AI生成:入職MIT后首次帶隊(duì),奧賽雙料金牌得主鄧明揚(yáng)參與

人工智能 新聞
傳統(tǒng)觀點(diǎn)認(rèn)為,圖像生成的自回歸模型通常伴隨著矢量量化(Vector Quantization),比如DALL·E一代就使用了經(jīng)典的VQ-VAE方法。

何愷明入職MIT副教授后,首次帶隊(duì)的新作來了!

圖片

讓自回歸模型拋棄矢量量化,使用連續(xù)值生成圖像。并借鑒擴(kuò)散模型的思想,提出Diffusion Loss。

圖片

他加入MIT后,此前也參與過另外幾篇CV方向的論文,不過都是和MIT教授Wojciech Matusik團(tuán)隊(duì)等合作的。

這次何愷明自己帶隊(duì),參與者中還出現(xiàn)一個(gè)熟悉的名字:

鄧明揚(yáng),IMO、IOI雙料奧賽金牌得主,在競賽圈人稱“乖神”。

圖片

目前鄧明揚(yáng)MIT本科在讀,按入學(xué)時(shí)間推算現(xiàn)在剛好大四,所以也有不少網(wǎng)友猜測他如果繼續(xù)在MIT讀博可能會(huì)加入何愷明團(tuán)隊(duì)。

接下來具體介紹一下,這篇論文研究了什么。

借鑒擴(kuò)散模型,大改自回歸生成

傳統(tǒng)觀點(diǎn)認(rèn)為,圖像生成的自回歸模型通常伴隨著矢量量化(Vector Quantization),比如DALL·E一代就使用了經(jīng)典的VQ-VAE方法。

但團(tuán)隊(duì)觀察到,自回歸生成的本質(zhì)是根據(jù)先前的值預(yù)測下一個(gè)token,這其實(shí)與值是離散還是連續(xù)沒啥必然聯(lián)系啊。

關(guān)鍵是要對(duì)token的概率分布進(jìn)行建模,只要該概率分布可以通過損失函數(shù)來測量并用于從中抽取樣本就行。

圖片

并且從另一個(gè)方面來看,矢量量化方法還會(huì)帶來一系列麻煩:

  • 需要一個(gè)離散的token詞表,需要精心設(shè)計(jì)量化的目標(biāo)函數(shù),訓(xùn)練困難,對(duì)梯度近似策略很敏感
  • 量化誤差會(huì)帶來信息損失,導(dǎo)致還原圖像質(zhì)量打折
  • 離散token適合建模分類分布,有表達(dá)能力上的局限

那么有什么更好的替代方法?

何愷明團(tuán)隊(duì)選擇在損失函數(shù)上動(dòng)刀,借鑒近年大火的擴(kuò)散模型的思想,提出Diffusion Loss,消除了離散tokenizer的必要性。

如此一來,在連續(xù)值空間中應(yīng)用自回歸模型生成圖像就可行了。

圖片

具體來說,它讓自回歸模型輸出一個(gè)潛變量z作為條件,去訓(xùn)練一個(gè)小型的去噪MLP網(wǎng)絡(luò)。

通過反向擴(kuò)散過程,這個(gè)小網(wǎng)絡(luò)就學(xué)會(huì)了如何根據(jù)z去采樣生成連續(xù)值的token x。擴(kuò)散的過程天然能建模任意復(fù)雜的分布,所以沒有類別分布的局限。

這個(gè)去噪網(wǎng)絡(luò)和自回歸模型是端到端聯(lián)合訓(xùn)練的,鏈?zhǔn)椒▌t直接把損失傳給自回歸模型,使其學(xué)會(huì)輸出最佳的條件z。

圖片

這篇工作的另一個(gè)亮點(diǎn),是各種自回歸模型的變體都適用。它統(tǒng)一了標(biāo)準(zhǔn)的自回歸AR、隨機(jī)順序的AR、以及何愷明擅長的掩碼方法。

其中掩碼自回歸(MAR)模型,可以在任意隨機(jī)位置同時(shí)預(yù)測多個(gè)token,同時(shí)還能和擴(kuò)散損失完美配合。

在這個(gè)統(tǒng)一的框架下,所有變體要么逐個(gè)token預(yù)測,要么并行預(yù)測一批token,但本質(zhì)上都是在已知token的基礎(chǔ)上去預(yù)測未知token,都是廣義的自回歸模型,所以擴(kuò)散損失都能適用。

圖片

通過消除矢量量化,團(tuán)隊(duì)訓(xùn)練的圖像生成模型獲得了強(qiáng)大的結(jié)果,同時(shí)享受序列建模的速度優(yōu)勢。

論文在AR、MAR的各種變體上做了大量實(shí)驗(yàn),結(jié)果表明擴(kuò)散損失比交叉熵?fù)p失穩(wěn)定帶來2-3倍的提升。

與其他領(lǐng)先模型一比也毫不遜色,小模型都能做到1.98的FID分?jǐn)?shù),大模型更是創(chuàng)下了1.55的SOTA。

圖片

而且它生成256x256圖像速度也很快,不到0.3秒一張。這得益于自回歸生成本來就很快,比擴(kuò)散模型少采樣很多步,再加上去噪網(wǎng)絡(luò)又很小。

圖片

最后總結(jié)一下,這項(xiàng)工作通過自回歸建模token間的相關(guān)性,再搭配擴(kuò)散過程對(duì)每個(gè)token的分布進(jìn)行建模。

這也有別于普通的潛空間擴(kuò)散模型中用單個(gè)大擴(kuò)散模型對(duì)所有token的聯(lián)合分布建模,而是做局部擴(kuò)散,在效果、速度和靈活性上都展現(xiàn)出了巨大的潛力。

當(dāng)然,這個(gè)方法還有進(jìn)一步探索的空間,團(tuán)隊(duì)提出,目前在在某些復(fù)雜的幾何圖形理解任務(wù)上還有待提高。

何愷明團(tuán)隊(duì)都有誰

最后再來介紹一下即將或可能加入何愷明課題組的團(tuán)隊(duì)成員。。

Tianhong LI(黎天鴻),清華姚班校友,MIT博士生在讀,將于2024年9月加入何愷明的課題組,擔(dān)任博士后。

圖片

Mingyang Deng(鄧明揚(yáng)),MIT本科數(shù)學(xué)和計(jì)算機(jī)科學(xué)專業(yè)在讀。

他在高一獲得IMO金牌,高三獲得IOI金牌,是競賽圈為數(shù)不多的雙料金牌得主,也是IOI歷史上第三位滿分選手。

目前鄧明揚(yáng)的研究重點(diǎn)是機(jī)器學(xué)習(xí),特別是理解和推進(jìn)生成式基礎(chǔ)模型,包括擴(kuò)散模型和大型語言模型。

不過他的個(gè)人主頁上還沒有透露下一步計(jì)劃。

圖片

One More Thing

何愷明當(dāng)初在MIT的求職演講備受關(guān)注,其中提到未來工作方向會(huì)是AI for Science,還引起圈內(nèi)一陣熱議。

圖片

現(xiàn)在,何愷明在AI4S方向的參與的首篇論文也來了:強(qiáng)化學(xué)習(xí)+量子物理學(xué)方向。

把Transformer模型用在了動(dòng)態(tài)異構(gòu)量子資源調(diào)度問題上,利用自注意力機(jī)制處理量子比特對(duì)的序列信息。并在概率性環(huán)境中訓(xùn)練強(qiáng)化學(xué)習(xí)代理,提供動(dòng)態(tài)實(shí)時(shí)調(diào)度指導(dǎo),最終顯著提升了量子系統(tǒng)性能,比基于規(guī)則的方法提高了3倍以上。

圖片

這樣一來,何愷明在自己的成名領(lǐng)域CV和探索新領(lǐng)域AI4S上都沒耽誤,兩開花,兩開花。

論文:https://arxiv.org/abs/2406.11838

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-12-03 13:40:31

2023-12-08 14:14:00

模型訓(xùn)練

2023-07-31 11:20:18

AI研究

2024-04-11 12:30:40

2025-02-26 11:14:10

2023-08-16 15:50:00

科學(xué)計(jì)算

2024-03-25 10:15:58

AI數(shù)據(jù)

2025-03-13 09:39:05

AImox生成

2024-10-06 12:32:42

2023-03-10 13:05:17

AI就職

2025-03-24 09:08:00

2023-11-20 21:56:57

入職微軟

2024-10-21 11:15:00

2025-02-21 09:40:00

模型訓(xùn)練數(shù)據(jù)

2023-11-02 12:37:25

訓(xùn)練數(shù)據(jù)

2025-03-17 08:20:00

神經(jīng)網(wǎng)絡(luò)AI模型

2025-02-26 13:23:08

2022-04-01 15:10:28

機(jī)器視覺人工智能目標(biāo)檢測

2025-03-12 14:46:06

2023-12-04 16:58:27

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)