大語言模型擊敗擴散模型!視頻圖像生成雙SOTA,谷歌CMU最新研究,一作北大校友
語言模型擊敗擴散模型,在視頻和圖像生成上實現(xiàn)雙SOTA!
這是來自谷歌CMU最新研究成果。
據(jù)介紹,這是語言模型第一次在標(biāo)志性的ImageNet基準(zhǔn)上擊敗擴散模型。
而背后的關(guān)鍵組件在于視覺分詞器(video tokenizer) ,它能將像素空間輸入映射為適合LLM學(xué)習(xí)的token。
谷歌CMU研究團隊提出了MAGVIT-v2,在另外兩項任務(wù)中超越了之前最優(yōu)視覺分詞器。
大語言模型擊敗擴散模型
已經(jīng)形成共識的是,大語言模型在各個生成領(lǐng)域都有出色的表現(xiàn)。比如文本、音頻、代碼生成等。
但一直以來在視覺生成方面,語言模型卻落后于擴散模型。
團隊認為,其主要原因在于缺乏一個好的視覺表示,類似于自研語言系統(tǒng),能有效地對視覺世界進行建模。與自然語言不同,人類會對視覺世界尚未演化出最佳的詞匯。而這也限制了大語言模型的視覺生成能力。
基于這樣的判斷,這篇研究主要完成了三項工作:
- 提出一種新的視覺tokenizer,在視覺生成、視頻壓縮以及動作識別都優(yōu)于此前最優(yōu)表現(xiàn)。
- 一種全新無查找(lookup-free)的量化方法,可通過學(xué)習(xí)大量詞匯來提高語言模型的視覺生成質(zhì)量;
- 首次有證據(jù)表明,在相同訓(xùn)練數(shù)據(jù)、等效模型大小和類似訓(xùn)練預(yù)算的條件下,語言模型在ImageNet上擊敗擴散模型。
據(jù)作者介紹,這也是視覺分詞器首次成功地實現(xiàn)了與標(biāo)準(zhǔn)編解碼器相媲美的效果。
在原有SOTA視覺tokenizerMAGVIT (Masked Generative Video Transformer)基礎(chǔ)上,該方法主要完成了兩種設(shè)計:無查找量化(Lookup-Free Quantization ,LFQ)以及圖像-視頻聯(lián)合tokenizer。
最終在視頻/圖像生成,ImageNet 512×512和Kinetics-600,都優(yōu)于Diffusion Model。
而在視頻壓縮、動作識別上,也優(yōu)于以往的結(jié)果。
一作是北大校友
一作于力軍目前是CMU計算機科學(xué)學(xué)院語言技術(shù)研究所博士生,師從Alexander G. Hauptmann教授,同時也是谷歌學(xué)生研究員。研究興趣在于多模態(tài)基礎(chǔ)模型,特別是多任務(wù)視頻生成。
在來到CMU前,他在北大獲得了計算機和經(jīng)濟學(xué)雙學(xué)士學(xué)位。
在研究團隊中也看到了其他不少華人面孔。
通訊作者蔣路,目前是谷歌研究院科學(xué)家以及CMU的兼職教授。
他的研究主要針對多模態(tài)大數(shù)據(jù)科領(lǐng)域,特別是魯棒深度學(xué)習(xí)、生成式人工智能和多模態(tài)基礎(chǔ)模型。
論文鏈接:
https://arxiv.org/abs/2310.05737
https://magvit.cs.cmu.edu/v2/