復(fù)旦視頻擴散模型綜述:覆蓋300+文獻,探討近期研究趨勢與突破,Github攬星2k+
視頻擴散模型新綜述來了,覆蓋300+文獻的那種。
最近,復(fù)旦大學(xué)、上海市智能視覺計算協(xié)同創(chuàng)新中心聯(lián)合微軟等學(xué)術(shù)機構(gòu),在國際頂級期刊《ACM Computing Surveys》(CSUR)上發(fā)表了題為《A Survey on Video Diffusion Models》的綜述論文。
不僅系統(tǒng)地梳理了擴散模型在視頻生成、編輯及理解等前沿領(lǐng)域的進展,還深入探討了近期的研究趨勢與突破,涵蓋了該領(lǐng)域近年來的重要成果。
該研究目前已在Github攬獲2k+ Star。
本篇綜述論文的第一作者為復(fù)旦大學(xué)博士生邢楨,通訊作者為復(fù)旦大學(xué)吳祖煊副教授和姜育剛教授。
基于擴散模型的視頻生成
本文將目前基于擴散模型的主流視頻生成模型分為三大類:基于文本的視頻生成,基于其他條件的視頻生成,以及無條件的視頻生成。
(1)基于文本的視頻生成:
以自然語言為輸入的視頻生成是當前視頻生成領(lǐng)域最重要的任務(wù)之一。
本文首先回顧了該領(lǐng)域在擴散模型提出之前的研究成果,隨后分別介紹了基于訓(xùn)練和無需訓(xùn)練的兩種擴散模型方法。
其中基于訓(xùn)練的方法通常依靠大規(guī)模數(shù)據(jù)集,通過優(yōu)化模型性能實現(xiàn)高質(zhì)量視頻生成;而無訓(xùn)練的方法則主要借助文生圖模型(T2I)和大語言模型(LLM)等技術(shù)實現(xiàn)視頻生成。
(2)基于其他條件的視頻生成:
該任務(wù)專注于細分領(lǐng)域的視頻生成工作。本文將這些條件歸類為以下幾種:姿勢引導(dǎo)(pose-guided)、動作引導(dǎo)(motion-guided)、聲音引導(dǎo)(sound-guided)、圖像引導(dǎo)(image-guided)、深度圖引導(dǎo)(depth-guided)等。
這些工作不僅提供了比純文本更為精準的控制條件,還將不同模態(tài)的信息融合到視頻生成的過程中,極大地豐富了視頻生成的技術(shù)手段和應(yīng)用場景。
(3)無條件的視頻生成:
該方向的研究主要圍繞視頻表征方式的設(shè)計與擴散模型網(wǎng)絡(luò)架構(gòu)設(shè)計展開,可以細分為基于U-Net的生成、基于Transformer的生成以及基于Mamba的生成。
基于擴散模型的視頻編輯
對于基于擴散模型的視頻編輯方法,本文同樣將目前主流的模型分成了三大類:基于文本的視頻編輯,基于其他條件的視頻編輯,以及特定細分領(lǐng)域的視頻編輯。
(1)基于文本的視頻編輯:
由于目前文本-視頻數(shù)據(jù)規(guī)模有限,大多數(shù)基于文本的視頻編輯任務(wù)都傾向于利用預(yù)訓(xùn)練的T2I模型來解決視頻幀之間的連貫性和語義不一致性等問題。
本文中,作者進一步將此類任務(wù)細分為基于訓(xùn)練的(training-based)、無需訓(xùn)練的(training-free)和一次性調(diào)優(yōu)的(one-shot tuned)方法,并分別加以總結(jié)。
(2)基于其他條件的視頻編輯:
隨著大模型時代的到來,除了最為直接的自然語言信息作為條件的視頻編輯,由指令、聲音、動作、多模態(tài)等作為條件的視頻編輯正受到越來越多的關(guān)注,作者也對相應(yīng)的工作進行了分類梳理。
(3)特定細分領(lǐng)域的視頻編輯:
在一些特定領(lǐng)域中,視頻編輯任務(wù)往往具有獨特的定制化需求。例如,視頻著色和人像視頻編輯等,這些任務(wù)針對特定場景提出了更加專門化的解決方案。
作者對相關(guān)研究成果進行了系統(tǒng)梳理,總結(jié)了這些領(lǐng)域的主要方法和實踐經(jīng)驗。
基于擴散模型的視頻理解
擴散模型不僅在傳統(tǒng)的視頻生成和編輯任務(wù)中取得了廣泛的應(yīng)用,它在視頻理解任務(wù)上也展現(xiàn)了出巨大的潛能。
通過對前沿論文的追蹤,作者歸納了視頻時序分割、視頻異常檢測、視頻物體分割、文本視頻檢索、動作識別等多個現(xiàn)有的應(yīng)用場景。
總結(jié)與展望
該綜述全面細致地總結(jié)了AIGC時代下擴散模型在視頻任務(wù)上的最新研究。
根據(jù)研究對象和技術(shù)特點,本文作者將百余份前沿工作進行了分類和概述,并在一些經(jīng)典的基準(benchmark)上對這些模型進行比較。
然而,擴散模型在視頻任務(wù)領(lǐng)域仍面臨一些新的研究方向和挑戰(zhàn),具體包括:
(1)大規(guī)模文本-視頻數(shù)據(jù)集的缺乏:
T2I模型的成功很大程度上得益于數(shù)以億計的高質(zhì)量文本-圖像數(shù)據(jù)集,例如LAION-5B;該數(shù)據(jù)集包含了數(shù)十億個圖像-文本對,極大提升了模型的泛化能力。
相比之下,在T2V任務(wù)中,當前的數(shù)據(jù)集無論從規(guī)模上還是質(zhì)量上都顯得遠遠不足。例如常用的WebVid數(shù)據(jù)集,該數(shù)據(jù)集的視頻不僅分辨率低(僅有360P),還常帶有水印。
因此,未來的研究重點應(yīng)該放在構(gòu)建大規(guī)模、無水印、高分辨率的公開數(shù)據(jù)集上,同時提升數(shù)據(jù)集的標注質(zhì)量和多樣性,以更好地支持視頻生成模型的訓(xùn)練。
(2)物理世界的真實性:
盡管現(xiàn)有的視頻生成模型在許多場景中取得了令人矚目的成果,但在復(fù)雜場景的物理世界描述上仍存在較大的局限性。
例如,Sora模型在生成涉及物理交互的視頻時,仍不能很好地生成完全符合物理規(guī)律的視頻。
作者指出,這些問題的根源在于當前模型對物理場景的理解仍較為淺顯,缺乏對物體剛性、重力、摩擦力等物理屬性的精確建模。
因此,未來的研究可以探索如何將物理學(xué)的規(guī)律嵌入到生成模型中,提升生成視頻中的物理屬性的合理性,從而使生成的視頻更真實。
(3)長視頻生成:
當前視頻生成模型面臨的一個顯著挑戰(zhàn)是視頻長度的限制。大多數(shù)模型只能生成時長不超過10秒的視頻內(nèi)容。
這主要是因為長視頻生成不僅對計算資源提出了更高要求,還要求模型能夠有效建模時空連貫性。而現(xiàn)有的自回歸模型中,時序誤差累積問題尤為突出。
此外,盡管現(xiàn)有的分階段生成方法(如粗到細的多階段生成)能夠在一定程度上改善生成效果,但卻往往帶來更復(fù)雜的訓(xùn)練和推理過程,導(dǎo)致生成速度變慢。
因此,未來的研究方向應(yīng)致力于開發(fā)更高效、更穩(wěn)定的長視頻生成方法,確保視頻在較長時間段內(nèi)既保持物理合理性又不失質(zhì)量穩(wěn)定性。
(4)高效的訓(xùn)練和推理:
T2V模型的訓(xùn)練和推理過程涉及到海量的視頻數(shù)據(jù),在訓(xùn)練和推理階段所需要的算力也呈幾何倍數(shù)增加,成本極高。
因此,未來的研究應(yīng)當致力于通過改進模型架構(gòu),例如采用更高效的時空建模方法,或通過知識蒸餾等技術(shù)來壓縮模型的大小,減少訓(xùn)練和推理過程中的計算復(fù)雜度,從而降低視頻生成的總體成本。
(5)可靠的基準和評價指標:
現(xiàn)有視頻領(lǐng)域的評價指標主要集中在衡量生成視頻與原視頻之間的分布差異,但未能全面評估生成視頻的整體質(zhì)量。
同時,用戶測試作為重要的評估方式之一,既耗時費力又具有較強的主觀性。
因此,未來的研究需要致力于研發(fā)更加客觀、全面的自動化評價指標,既能衡量生成視頻的視覺質(zhì)量,也能捕捉到其物理真實性和時空一致性。
(6)高可控性的視頻編輯:
目前大多數(shù)的視頻生成模型主要依賴文本描述來進行視頻編輯。然而,文本描述往往較為抽象,難以提供精確的控制。
例如,在涉及生成特定物體的移動軌跡、控制多個物體之間的交互等動態(tài)編輯任務(wù)時,現(xiàn)有方法仍然存在較大的局限性。
此外,對于復(fù)雜場景中的多物體編輯,生成模型也難以保持多個物體的時空一致性。
因此,未來的研究方向應(yīng)當著力于提高視頻編輯的可控性,例如通過結(jié)合視頻分割、目標檢測等技術(shù),使得模型能夠在視頻的局部區(qū)域中執(zhí)行更加精細的編輯操作,并提升在多物體場景下的動態(tài)編輯能力,從而實現(xiàn)更為靈活和精確的生成與編輯。
論文鏈接:https://arxiv.org/abs/2310.10647
論文主頁:https://github.com/ChenHsing/Awesome-Video-Diffusion-Models