自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate 精華

發(fā)布于 2024-6-11 09:21
瀏覽
0收藏

人類跳舞視頻生成是一項引人注目且具有挑戰(zhàn)性的可控視頻合成任務(wù),旨在根據(jù)輸入的參考圖像和目標(biāo)姿勢序列生成高質(zhì)量逼真的連續(xù)視頻。隨著視頻生成技術(shù)的快速發(fā)展,特別是生成模型的迭代演化,跳舞視頻生成任務(wù)取得了前所未有的進展,并展示了廣泛的應(yīng)用潛力。


現(xiàn)有的方法可以大致分為兩組。第一組通?;?strong>生成對抗網(wǎng)絡(luò)(GAN),其利用中間的姿勢引導(dǎo)表示來扭曲參考外觀,并通過之前扭曲的目標(biāo)生成合理的視頻幀。然而,基于生成對抗網(wǎng)絡(luò)的方法通常存在訓(xùn)練不穩(wěn)定和泛化能力差的問題,導(dǎo)致明顯的偽影和幀間抖動。


第二組則使用擴散模型(Diffusion model)來合成逼真的視頻。這些方法兼具穩(wěn)定訓(xùn)練和強大遷移能力的優(yōu)勢,相較于基于 GAN 的方法表現(xiàn)更好,典型方法如 Disco、MagicAnimate、Animate Anyone、Champ 等。


盡管基于擴散模型的方法取得了顯著進展,但現(xiàn)有的方法仍存在兩個限制:一是需要額外的參考網(wǎng)絡(luò)(ReferenceNet)來編碼參考圖像特征并將其與 3D-UNet 的主干分支進行表觀對齊,導(dǎo)致增加了訓(xùn)練難度和模型參數(shù);二是它們通常采用時序 Transformer 來建模視頻幀之間時序依賴關(guān)系,但 Transformer 的復(fù)雜度隨生成的時間長度成二次方的計算關(guān)系,限制了生成視頻的時序長度。典型方法只能生成 24 幀視頻,限制了實際部署的可能性。盡管采用了時序重合的滑動窗口策略可以生成更長的視頻,但團隊作者發(fā)現(xiàn)這種方式容易導(dǎo)致片段重合連接處通常存在不流暢的轉(zhuǎn)換和外貌不一致性的問題。


為了解決這些問題,來自華中科技大學(xué)、阿里巴巴、中國科學(xué)技術(shù)大學(xué)的研究團隊提出了 UniAnimate 框架,以實現(xiàn)高效且長時間的人類視頻生成


支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)


  • 論文地址:https://arxiv.org/abs/2406.01188
  • 項目主頁:https://unianimate.github.io/


方法簡介


UniAnimate 框架首先將參考圖像、姿勢指導(dǎo)和噪聲視頻映射到特征空間中,然后利用統(tǒng)一的視頻擴散模型(Unified Video Diffusion Model)同時處理參考圖像與視頻主干分支表觀對齊和視頻去噪任務(wù),實現(xiàn)高效特征對齊和連貫的視頻生成。


其次,研究團隊還提出了一種統(tǒng)一的噪聲輸入,其支持隨機噪聲輸入和基于第一幀的條件噪聲輸入,隨機噪聲輸入可以配合參考圖像和姿態(tài)序列生成一段視頻,而基于第一幀的條件噪聲輸入(First Frame Conditioning)則以視頻第一幀作為條件輸入延續(xù)生成后續(xù)的視頻。通過這種方式,推理時可以通過把前一個視頻片段(segment)的最后一幀當(dāng)作后一個片段的第一幀來進行生成,并以此類推在一個框架中實現(xiàn)長視頻生成。


最后,為了進一步高效處理長序列,研究團隊探索了基于狀態(tài)空間模型(Mamba)的時間建模架構(gòu),作為原始的計算密集型時序 Transformer 的一種替代。實驗發(fā)現(xiàn)基于時序 Mamba 的架構(gòu)可以取得和時序 Transformer 類似的效果,但是需要的顯存開銷更小。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

通過 UniAnimate 框架,用戶可以生成高質(zhì)量的時序連續(xù)人類跳舞視頻。值得一提的是,通過多次使用 First Frame Conditioning 策略,可以生成持續(xù)一分鐘的高清視頻。與傳統(tǒng)方法相比,UniAnimate 具有以下優(yōu)勢:

  • 無需額外的參考網(wǎng)絡(luò):UniAnimate 框架通過統(tǒng)一的視頻擴散模型,消除了對額外參考網(wǎng)絡(luò)的依賴,降低了訓(xùn)練難度和模型參數(shù)的數(shù)量。
  • 引入了參考圖像的姿態(tài)圖作為額外的參考條件,促進網(wǎng)絡(luò)學(xué)習(xí)參考姿態(tài)和目標(biāo)姿態(tài)之間的對應(yīng)關(guān)系,實現(xiàn)良好的表觀對齊。
  • 統(tǒng)一框架內(nèi)生成長序列視頻:通過增加統(tǒng)一的噪聲輸入,UniAnimate 能夠在一個框架內(nèi)生成長時間的視頻,不再受到傳統(tǒng)方法的時間限制。
  • 具備高度一致性:UniAnimate 框架通過迭代利用第一幀作為條件生成后續(xù)幀的策略,保證了生成視頻的平滑過渡效果,使得視頻在外觀上更加一致和連貫。這一策略也使得用戶可以生成多個視頻片段,并選取生成結(jié)果好的片段的最后一幀作為下一個生成片段的第一幀,方便了用戶與模型交互和按需調(diào)整生成結(jié)果。而利用之前時序重合的滑動窗口策略生成長視頻,則無法進行分段選擇,因為每一段視頻在每一步擴散過程中都相互耦合。


以上這些特點使得 UniAnimate 框架在合成高質(zhì)量、長時間的人類跳舞視頻方面表現(xiàn)出色,為實現(xiàn)更廣泛的應(yīng)用提供了新的可能性。

生成結(jié)果示例

1. 基于合成圖片進行跳舞視頻生成。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

2. 基于真實圖片進行跳舞視頻生成。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

3. 基于粘土風(fēng)格圖片進行跳舞視頻生成。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

4. 馬斯克跳舞。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

5. Yann LeCun 跳舞。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

6. 基于其他跨域圖片進行跳舞視頻生成。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

7. 一分鐘跳舞視頻生成。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)


獲取原始 MP4 視頻和更多高清視頻示例請參考論文的項目主頁 ???https://unianimate.github.io/??。

實驗對比分析

1. 和現(xiàn)有方法在 TikTok 數(shù)據(jù)集上的定量對比實驗。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

如上表所示,UniAnimate 方法在圖片指標(biāo)如 L1、PSNR、SSIM、LPIPS 上和視頻指標(biāo) FVD 上都取得了最好的結(jié)果,說明了 UniAnimate 可以生成高保真的結(jié)果。


2. 和現(xiàn)有方法的定性對比實驗。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

從上述定性對比實驗也可以看出,相比于 MagicAnimate、Animate Anyone, UniAnimate 方法可以生成更好的連續(xù)結(jié)果,沒有出現(xiàn)明顯的 artifacts,表明了 UniAnimate 的有效性。


3. 剝離實驗。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

從上表的數(shù)值結(jié)果可以看出,UniAnimate 中用到的參考姿態(tài)和統(tǒng)一視頻擴散模型對性能提升起到了很關(guān)鍵的作用。


4. 長視頻生成策略對比。

支持合成一分鐘高清視頻,華科等提出人類跳舞視頻生成新框架UniAnimate-AI.x社區(qū)

從上圖可以看出之前常用的時序重合滑動窗口策略生成長視頻容易導(dǎo)致不連續(xù)的過渡,研究團隊認(rèn)為這是因為不同窗口在時序重合部分去噪難度不一致,使得生成結(jié)果不同,而直接平均會導(dǎo)致有明顯的變形或者扭曲等情況發(fā)生,并且這種不一致會進行錯誤傳播。而本文利用的首幀視頻延續(xù)生成方法則可以生成平滑的過渡。


更多的實驗對比結(jié)果和分析可以參考原論文。


總而言之,UniAnimate 的示例結(jié)果表現(xiàn)和定量對比結(jié)果很不錯,期待 UniAnimate 在各個領(lǐng)域的應(yīng)用,如影視制作、虛擬現(xiàn)實和游戲產(chǎn)業(yè)等,為用戶帶來更為逼真、精彩的人類形象動畫體驗。


本文轉(zhuǎn)自 機器之心 ,作者:機器之心


原文鏈接:??https://mp.weixin.qq.com/s/562LGTopFHNp5hMqvqoE6g??

標(biāo)簽
已于2024-6-11 09:24:04修改
收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦