自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

純自回歸圖像生成模型開源來了,復(fù)旦聯(lián)手字節(jié)seed共同捍衛(wèi)自回歸

人工智能 新聞
來自復(fù)旦視覺與學(xué)習(xí)實驗室和字節(jié)Seed的研究者們希望“驗一驗”自回歸視覺生成模型的能力,他們保持“Next-token prediction”這樣簡潔優(yōu)美的形式,而通過優(yōu)化訓(xùn)練和推理過程來探究自回歸視覺生成是否可以像擴散模型一樣取得不錯的文生圖效果。

基于Transformer的自回歸架構(gòu)在語言建模上取得了顯著成功,但在圖像生成領(lǐng)域,擴散模型憑借強大的生成質(zhì)量和可控性占據(jù)了主導(dǎo)地位。

圖片

雖然一些早期工作如Parti、LlamaGen,嘗試用更強的視覺tokenizer和Transformer架構(gòu)來提升自回歸生成的效果,但他們論文中的結(jié)果表明,只有更多的參數(shù)量才能讓自回歸模型勉強和擴散模型“掰掰手腕”。

這也讓越來越多的研究者質(zhì)疑自回歸視覺生成是否是一條可行、值得探索的路徑。通常來說,大家認(rèn)為自回歸視覺生成模型的不足集中:

1. 離散的token必然帶來更多的信息損失:當(dāng)下改進視覺tokenizer也是一個備受關(guān)注的方向,最新的方法無論是離散或連續(xù)都可以取得非常好的重建效果(至少不會制約生成模型),因此相信這一點不會是制約兩條路線的核心原因;

2。 視覺token序列往往較長、因此很難建模token間的關(guān)系:對于一個512分辨率的圖像來說,16倍壓縮比的tokenizer意味著視覺token序列的長度是1024。對于采用因果掩碼(causal mask)的自回歸模型來說,建模這么長的序列無疑是很有挑戰(zhàn)性的;

3. 下一個token預(yù)測的效率太低:相比于擴散模型或MaskGIT那樣一步出整圖或多個token,自回歸模型串行預(yù)測token的方式在生成速度方面存在明顯劣勢。

近些時間,也有一些工作如VAR和MAR嘗試重新定義視覺里自回歸的形式,比如下一個尺度預(yù)測、或用連續(xù)token做自回歸。這些方法在ImageNet這樣的學(xué)術(shù)數(shù)據(jù)集上取得了不錯的效果,但是也潛在地破壞了視覺模態(tài)和語言模型的對齊性。

帶著好奇的心態(tài),來自復(fù)旦視覺與學(xué)習(xí)實驗室和字節(jié)Seed的研究者們希望“驗一驗”自回歸視覺生成模型的能力,他們保持“Next-token prediction”這樣簡潔優(yōu)美的形式,而通過優(yōu)化訓(xùn)練和推理過程來探究自回歸視覺生成是否可以像擴散模型一樣取得不錯的文生圖效果。

不依賴外掛文本編碼器的自回歸模型

先說結(jié)論!這篇工作有三點驚艷的發(fā)現(xiàn):

0.5B的參數(shù)規(guī)模下,純自回歸模型可以生成1024分辨率的高質(zhì)量圖像,且在常用文生圖基準(zhǔn)上取得了非常有競爭力的結(jié)果,例如在GenEval上取得了0.59, 是1B以內(nèi)模型的SOTA;

通過“預(yù)訓(xùn)練-有監(jiān)督微調(diào)-強化學(xué)習(xí)”這樣的三階段訓(xùn)練,模型可以生成出具有很高美學(xué)性的圖像,且有監(jiān)督微調(diào)(SFT)和基于GRPO的強化學(xué)習(xí)可以持續(xù)提升模型的指令跟隨能力以及生成效果;

當(dāng)用vLLM進行部署時,0.5B的模型可以在14秒以內(nèi)生成1024分辨率的圖像。

性能比較

本文提出的SimpleAR在GenEval和DPG上都取得了不錯的結(jié)果,其中0.5B模型顯著超越了SDv2.1和LlamaGen。

值得一提的是,擴散模型和Infinity這類方法都依賴于外掛的文本編碼器,如Infinity使用了3B的FlanT5-XL,而本文提出的自回歸模型則將文本(prompt)編碼和視覺生成集成在了一個decoder-only的Transformer里,不僅可以更好地學(xué)習(xí)跨模態(tài)對齊,也能更加高效地利用參數(shù)。

圖片

1.5B模型的性能距離Infinity還有差距,但本文相信這主要是由數(shù)據(jù)規(guī)模導(dǎo)致的,當(dāng)用更多的高質(zhì)量數(shù)據(jù)訓(xùn)練時,模型的性能還可以被進一步提升。此外,本文選擇了Cosmos作為視覺tokenizer,其在重建低分辨率圖像和人臉等細(xì)節(jié)上十分有限,因此生成能力還有充分被改進的空間。

本文還首次在文生圖上成功應(yīng)用了GRPO進行后訓(xùn)練,結(jié)果表明:利用CLIP這樣非常簡單的reward函數(shù),也依然可以觀察到非常有潛力的reward曲線、并在GenEval上了取得了顯著的性能提升:

圖片

最后是關(guān)于效率問題。本文首先嘗試了用vLLM將模型部署到A100上,結(jié)果表明其可以顯著地提升模型的推理速度:僅需13.55秒就能生成1024分辨率的高質(zhì)量圖像,這顯著縮小了和擴散模型的差距,并由于可以使用KV Cache技術(shù)而相比于MaskGIT更有優(yōu)勢。本文也實現(xiàn)了推斷采樣,其可以有效降低2倍的自回歸推理步數(shù)。盡管由于不能使用KV Cache,單純的步數(shù)減少不能直接帶來推理時間的降低,但這為高效自回歸視覺生成提供了一些嶄新的思路。

圖片

可視化結(jié)果

圖片

幾點思考

顧名思義,SimpleAR只是團隊關(guān)于自回歸視覺生成的一次簡單嘗試,但從中可以看到自回歸模型相較于擴散模型的幾點優(yōu)勢:

1. 將文本和視覺token擺上平等的地位,更好地支持不同模態(tài)之間的聯(lián)合建模學(xué)習(xí),從而有利于構(gòu)建原生的多模態(tài)理解和生成模型;

2. 與現(xiàn)有支持語言模型后訓(xùn)練和推理加速的技術(shù)兼容性高:通過強化學(xué)習(xí)可以顯著提升模型的文本跟隨能力和生成效果、通過vLLM可以有效降低模型的推理時間;

本文訓(xùn)練及測試代碼以及模型權(quán)重均已開源,希望鼓勵更多的人參與到自回歸視覺生成的探索中。

論文鏈接:
https://arxiv.org/abs/2504.11455
代碼地址:
https://github.com/wdrink/SimpleAR

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-11-12 13:10:49

2024-04-17 13:22:55

人工智能

2024-01-29 00:24:07

圖像模型預(yù)訓(xùn)練

2024-04-26 12:51:48

2022-03-14 10:53:12

谷歌模型研究

2024-05-23 16:56:58

2025-04-22 15:34:08

視頻生成AI

2024-01-18 10:57:35

AIM模型NLP

2022-11-24 17:00:01

模型ARDL開發(fā)

2022-08-03 11:50:29

DeepMindAI瘦身

2024-07-03 12:05:06

Llama模型架構(gòu)

2024-02-27 09:43:48

視頻模型

2025-02-27 13:45:00

2025-04-03 10:17:23

2025-03-17 08:25:00

模型AI訓(xùn)練

2024-02-07 12:37:23

模型數(shù)據(jù)

2025-03-25 09:04:12

2023-04-25 13:46:42

AI開源

2022-01-21 15:33:56

架構(gòu)模型AI

2024-06-26 14:50:52

點贊
收藏

51CTO技術(shù)棧公眾號