自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

國內(nèi)高校打造類Sora模型VDT,通用視頻擴散Transformer被ICLR 2024接收

人工智能 新聞
這項工作由中國人民大學研究團隊主導,并與加州大學伯克利分校、香港大學等進行了合作,最早于 2023 年 5 月公開在 arXiv 網(wǎng)站。

2 月 16 日,OpenAI Sora 的發(fā)布無疑標志著視頻生成領(lǐng)域的一次重大突破。Sora 基于 Diffusion Transformer 架構(gòu),和市面上大部分主流方法(由 2D Stable Diffusion 擴展)并不相同。

為什么 Sora 堅持使用 Diffusion Transformer,其中的原因從同時期發(fā)表在 ICLR 2024(VDT: General-purpose Video Diffusion Transformers via Mask Modeling)的論文可以窺見一二。

這項工作由中國人民大學研究團隊主導,并與加州大學伯克利分校、香港大學等進行了合作,最早于 2023 年 5 月公開在 arXiv 網(wǎng)站。研究團隊提出了基于 Transformer 的 Video 統(tǒng)一生成框架 - Video Diffusion Transformer (VDT),并對采用 Transformer 架構(gòu)的原因給出了詳細的解釋。

  • 論文標題:VDT: General-purpose Video Diffusion Transformers via Mask Modeling
  • 文章地址:Openreview: https://openreview.net/pdf?id=Un0rgm9f04
  • arXiv地址: https://arxiv.org/abs/2305.13311
  • 項目地址:VDT: General-purpose Video Diffusion Transformers via Mask Modeling
  • 代碼地址:https://github.com/RERV/VDT

1.VDT 的優(yōu)越性與創(chuàng)新之處

研究者表示,采用 Transformer 架構(gòu)的 VDT 模型,在視頻生成領(lǐng)域的優(yōu)越性體現(xiàn)在:

  • 與主要為圖像設計的 U-Net 不同,Transformer 能夠借助其強大的 token 化和注意力機制,捕捉長期或不規(guī)則的時間依賴性,從而更好地處理時間維度。
  • 只有當模型學習(或記憶)了世界知識(例如空間時間關(guān)系和物理法則)時,才能生成與現(xiàn)實世界相符的視頻。因此,模型的容量成為視頻擴散的一個關(guān)鍵組成部分。Transformer 已經(jīng)被證明具有高度的可擴展性,比如 PaLM 模型就擁有高達 540B 的參數(shù),而當時最大的 2D U-Net 模型大小僅 2.6B 參數(shù)(SDXL),這使得 Transformer 比 3D U-Net 更適合應對視頻生成的挑戰(zhàn)。
  • 視頻生成領(lǐng)域涵蓋了包括無條件生成、視頻預測、插值和文本到圖像生成等多項任務。以往的研究往往聚焦于單一任務,常常需要為下游任務引入專門的模塊進行微調(diào)。此外,這些任務涉及多種多樣的條件信息,這些信息在不同幀和模態(tài)之間可能有所不同,這就需要一個能夠處理不同輸入長度和模態(tài)的強大架構(gòu)。Transformer 的引入能夠?qū)崿F(xiàn)這些任務的統(tǒng)一。

VDT 的創(chuàng)新之處,主要包括如下幾個方面:

  • 將 Transformer 技術(shù)應用于基于擴散的視頻生成,展現(xiàn)了 Transformer 在視頻生成領(lǐng)域的巨大潛力。VDT 的優(yōu)勢在于其出色的時間依賴性捕獲能力,能夠生成時間上連貫的視頻幀,包括模擬三維對象隨時間的物理動態(tài)。
  • 提出統(tǒng)一的時空掩碼建模機制,使 VDT 能夠處理多種視頻生成任務,實現(xiàn)了技術(shù)的廣泛應用。VDT 靈活的條件信息處理方式,如簡單的 token 空間拼接,有效地統(tǒng)一了不同長度和模態(tài)的信息。同時,通過與該工作提出的時空掩碼建模機制結(jié)合,VDT 成為了一個通用的視頻擴散工具,在不修改模型結(jié)構(gòu)的情況下可以應用于無條件生成、視頻后續(xù)幀預測、插幀、圖生視頻、視頻畫面補全等多種視頻生成任務。

2.VDT 的網(wǎng)絡架構(gòu)詳細解讀

圖片

VDT 框架與 Sora 的框架非常相似,包括以下幾部分:

輸入 / 輸出特征。VDT 的目標是生成一個 F×H×W×3 的視頻片段,由 F 幀大小為 H×W 的視頻組成。然而,如果使用原始像素作為 VDT 的輸入,尤其是當 F 很大時,將導致計算量極大。為解決這個問題,受潛在擴散模型(LDM)的啟發(fā),VDT 使用預訓練的 VAE tokenizer 將視頻投影到潛在空間中。將輸入和輸出的向量維度減少到潛在特征 / 噪聲的 F×H/8×W/8×C,加速了 VDT 的訓練和推理速度,其中 F 幀潛在特征的大小為 H/8×W/8。這里的 8 是 VAE tokenizer 的下采樣率,C 表示潛在特征維度。

線性嵌入。遵循 Vision Transformer 的方法,VDT 將潛在視頻特征表示劃分為大小為 N×N 的非重疊 Patch。

時空 Transformer Block。受到視頻建模中時空自注意力成功的啟發(fā),VDT 在 Transformer Block 中插入了一個時間注意力層,以獲得時間維度的建模能力。具體來說,每個 Transformer Block 由一個多頭時間注意力、一個多頭空間注意力和一個全連接前饋網(wǎng)絡組成,如上圖所示。

對比 Sora 最新發(fā)布的技術(shù)報告,可以看到 VDT 和 Sora 在實現(xiàn)細節(jié)上僅存在一些細微差別。

首先,VDT 采用的是在時空維度上分別進行注意力機制處理的方法,而 Sora 則是將時間和空間維度合并,通過單一的注意力機制來處理。這種分離注意力的做法在視頻領(lǐng)域已經(jīng)相當常見,通常被視為在顯存限制下的一種妥協(xié)選擇。VDT 選擇采用分離注意力也是出于計算資源有限的考慮。Sora 強大的視頻動態(tài)能力可能來自于時空整體的注意力機制。

其次,不同于 VDT,Sora 還考慮了文本條件的融合。之前也有基于 Transformer 進行文本條件融合的研究(如 DiT),這里猜測 Sora 可能在其模塊中進一步加入了交叉注意力機制,當然,直接將文本和噪聲拼接作為條件輸入的形式也是一種潛在的可能。

在 VDT 的研究進程中,研究者將 U-Net 這個常用的基礎(chǔ)骨干網(wǎng)絡替換為 Transformer。這不僅驗證了 Transformer 在視頻擴散任務中的有效性,展現(xiàn)了便于擴展和增強連續(xù)性的優(yōu)勢,也引發(fā)了他們對于其潛在價值的進一步思考。

隨著 GPT 模型的成功和自回歸(AR)模型的流行,研究者開始探索 Transformer 在視頻生成領(lǐng)域的更深層次應用,思考其是否能為實現(xiàn)視覺智能提供新的途徑。視頻生成領(lǐng)域有一個與之密切相關(guān)的任務 —— 視頻預測。將預測下一個視頻幀作為通往視覺智能的路徑這一想法看似簡單,但它實際上是許多研究者共同關(guān)注的問題。

基于這一考慮,研究者希望在視頻預測任務上進一步適配和優(yōu)化他們的模型。視頻預測任務也可以視為條件生成,這里給定的條件幀是視頻的前幾幀。VDT 主要考慮了以下三種條件生成方式:

圖片

自適應層歸一化。實現(xiàn)視頻預測的一種直接方法是將條件幀特征整合到 VDT Block 的層歸一化中,類似于我們?nèi)绾螌r間信息整合到擴散過程中。

交叉注意力。研究者還探索了使用交叉注意力作為視頻預測方案,其中條件幀用作鍵和值,而噪聲幀作為查詢。這允許將條件信息與噪聲幀融合。在進入交叉注意力層之前,使用 VAE tokenizer 提取條件幀的特征并 Patch 化。同時,還添加了空間和時間位置嵌入,以幫助我們的 VDT 學習條件幀中的對應信息。

Token 拼接。VDT 模型采用純粹的 Transformer 架構(gòu),因此,直接使用條件幀作為輸入 token 對 VDT 來說是更直觀的方法。研究者通過在 token 級別拼接條件幀(潛在特征)和噪聲幀來實現(xiàn)這一點,然后將其輸入到 VDT 中。接下來,他們將 VDT 的輸出幀序列分割,并使用預測的幀進行擴散過程,如圖 3 (b) 所示。研究者發(fā)現(xiàn),這種方案展示了最快的收斂速度,與前兩種方法相比,在最終結(jié)果上提供了更優(yōu)的表現(xiàn)。此外,研究者發(fā)現(xiàn)即使在訓練過程中使用固定長度的條件幀,VDT 仍然可以接受任意長度的條件幀作為輸入,并輸出一致的預測特征。

在 VDT 的框架下,為了實現(xiàn)視頻預測任務,不需要對網(wǎng)絡結(jié)構(gòu)進行任何修改,僅需改變模型的輸入即可。這一發(fā)現(xiàn)引出了一個直觀的問題:我們能否進一步利用這種可擴展性,將 VDT 擴展到更多樣化的視頻生成任務上 —— 例如圖片生成視頻 —— 而無需引入任何額外的模塊或參數(shù)。

通過回顧 VDT 在無條件生成和視頻預測中的功能,唯一的區(qū)別在于輸入特征的類型。具體來說,輸入可以是純噪聲潛在特征,或者是條件和噪聲潛在特征的拼接。然后,研究者引入了 Unified Spatial-Temporal Mask Modeling 來統(tǒng)一條件輸入,如下圖 4 所示:

圖片

3.VDT 的性能評測

通過上述方法,VDT 模型不僅可以無縫地處理無條件視頻生成和視頻預測任務,還能夠通過簡單地調(diào)整輸入特征,擴展到更廣泛的視頻生成領(lǐng)域,如視頻幀插值等。這種靈活性和可擴展性的體現(xiàn),展示了 VDT 框架的強大潛力,為未來的視頻生成技術(shù)提供了新的方向和可能性。

圖片

有趣的是,除 text-to-video 外,OpenAI 也展示了 Sora 非常驚艷的其他任務,包括基于 image 生成,前后 video predict 以及不同 video clip 相融合的例子等,和研究者提出的 Unified Spatial-Temporal Mask Modeling 所支持的下游任務非常相似;同時在參考文獻中也引用了 kaiming 的 MAE。所以,這里猜測 Sora 大概率底層也使用了類 MAE 的訓練方法。

研究者同時探索了生成模型 VDT 對簡單物理規(guī)律的模擬。他們在 Physion 數(shù)據(jù)集上進行實驗,VDT 使用前 8 幀作為條件幀,并預測接下來的 8 幀。在第一個示例(頂部兩行)和第三個示例(底部兩行)中,VDT 成功模擬了物理過程,包括一個沿拋物線軌跡運動的球和一個在平面上滾動并與圓柱體碰撞的球。在第二個示例(中間兩行)中,VDT 捕捉到了球的速度 / 動量,因為球在碰撞圓柱體前停了下來。這證明了 Transformer 架構(gòu)是可以學習到一定的物理規(guī)律。

圖片

圖片

VDT 對網(wǎng)絡結(jié)構(gòu)進行部分消融??梢园l(fā)現(xiàn)模型性能和 GFlops 強相關(guān),模型結(jié)構(gòu)本身的一些細節(jié)反而影響不是很大,這個和 DiT 的發(fā)現(xiàn)也是一致的。

研究者還對 VDT 模型進行了一些結(jié)構(gòu)上的消融研究。結(jié)果表明,減小 Patchsize、增加 Layers 的數(shù)量以及增大 Hidden Size 都可以進一步提高模型的性能。Temporal 和 Spatial 注意力的位置以及注意力頭的數(shù)量對模型的結(jié)果影響不大。在保持相同 GFlops 的情況下,需要一些設計上的權(quán)衡,總體而言,模型的性能沒有顯著差異。但是,GFlops 的增加會帶來更好的結(jié)果,這展示了 VDT 或者 Transformer 架構(gòu)的可擴展性。

VDT 的測試結(jié)果證明了 Transformer 架構(gòu)在處理視頻數(shù)據(jù)生成方面的有效性和靈活性。由于計算資源的限制,VDT 只在部分小型學術(shù)數(shù)據(jù)集上進行了實驗。我們期待未來研究能夠在 VDT 的基礎(chǔ)上,進一步探索視頻生成技術(shù)的新方向和應用,也期待中國公司能早日推出國產(chǎn) Sora 模型。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2023-06-27 09:53:11

論文AI

2024-05-10 07:58:03

2024-01-17 12:05:12

AI模型

2023-12-13 13:49:00

模型訓練

2024-02-21 12:19:00

AI模型

2023-11-13 18:50:55

AI數(shù)據(jù)

2024-03-26 13:00:10

搜索腦圖AI

2024-04-07 07:40:00

2024-03-27 13:35:00

AI技術(shù)視頻

2024-07-19 10:39:38

2024-10-16 14:10:00

AI視頻生成

2013-10-21 10:24:38

SDN實踐科研

2024-03-27 13:03:27

AI技術(shù)論壇

2025-04-08 09:30:00

模型AI機器人

2024-03-06 16:08:13

人工智能擴散模型生成模型

2024-08-26 08:45:00

機器模型

2024-03-25 00:30:00

AI框架

2024-02-27 09:14:01

AI模型

2024-05-08 09:37:36

AI論文

2024-02-19 07:58:01

OpenAI模型GPT
點贊
收藏

51CTO技術(shù)棧公眾號