52個AIGC視頻生成算法模型介紹
基于Diffusion模型的AIGC生成算法日益火熱,其中文生圖,圖生圖等圖像生成技術普遍成熟,很多算法從業(yè)者開始從事視頻生成算法的研究和開發(fā),原因是視頻生成領域相對空白。
一、AIGC視頻算法發(fā)展現(xiàn)狀
從2023年開始,AIGC+視頻的新算法層出不窮,其中最直接的是把圖像方面的成果引入視頻領域,并結(jié)合時序信息去生成具有連續(xù)性的視頻。隨著Sora的出現(xiàn),視頻生成的效果又再次上升了一個臺階,因此有必要將去年一年到現(xiàn)在的視頻領域進展梳理一下,為以后的視頻方向的研究提供一點思路。
二、AIGC視頻算法分類
AIGC視頻算法,經(jīng)過梳理發(fā)現(xiàn),可以大體分為:文生視頻,圖生視頻,視頻編輯,視頻風格化,人物動態(tài)化,長視頻生成等方向。具體的輸入和輸出形式如下:
- 文生視頻:輸入文本,輸出視頻
- 圖生視頻:輸入圖片(+控制條件),輸出視頻
- 視頻編輯:輸入視頻(+控制條件),輸出視頻
- 視頻風格化:輸入視頻,輸出視頻
- 人物動態(tài)化:輸入圖片+姿態(tài)條件,輸出視頻
- 長視頻生成:輸入文本,輸出長視頻
三、具體算法梳理
文生視頻
CogVideo: Large-scale Pretraining for Text-to-Video Generation via Transformers
機構(gòu):清華
時間:2022.5.29
???https://github.com/THUDM/CogVideo.??
簡單介紹:基于兩階段的transformer(生成+幀間插值)來做文生視頻
IMAGEN VIDEO
機構(gòu):Google
時間:2022.10.5
簡單介紹:基于google的Imagen來做的時序擴展,而Imagen和Imagen video都沒有開源
Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators
機構(gòu):Picsart AI Resarch
時間:2023.3.23
???https://github.com/Picsart-AI-Research/Text2Video-Zero???
簡單介紹:基于圖像diffusion model引入corss-frame attention來做時序建模,其次通過顯著性檢測來實現(xiàn)背景平滑。
MagicVideo: Efficient Video GenerationWith Latent Diffusion Models
機構(gòu):字節(jié)
時間:2023.5.11
簡單介紹:直接將圖像SD架構(gòu)擴展成視頻,增加了時序信息
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
機構(gòu):上海 AI Lab
時間:2023.7.11
???https://animatediff.github.io/???
簡單介紹:基于圖像diffusion model,訓練一個運動建模模塊,來學習運動信息
VideoCrafter1: Open Diffusion Models for High-Quality Video Generation
機構(gòu):騰訊 AI Lab
時間:2023.10.30
???https://ailab-cvc.github.io/videocrafter???
簡單介紹:基于diffusion模型,網(wǎng)絡架構(gòu)采用空間和時序attention操作來實現(xiàn)視頻生成
圖生視頻
AnimateDiff: Animate Your Personalized Text-to-Image Diffusion Models without Specific Tuning
機構(gòu):上海 AI Lab
時間:2023.7.11
???https://animatediff.github.io/??
VideoCrafter1: Open Diffusion Models for High-Quality Video Generation
機構(gòu):騰訊 AI Lab
時間:2023.10.30
???https://ailab-cvc.github.io/videocrafter??
stable video diffusion
機構(gòu):Stability AI
時間:2023.11.21
???https://stability.ai/news/stable-video-diffusion-open-ai-video-model???
簡單介紹:基于SD2.1增加時序?qū)?,來進行視頻生成
AnimateZero: Video Diffusion Models are Zero-Shot Image Animators
機構(gòu):騰訊 AI Lab
時間:2023.12.6
???https://github.com/vvictoryuki/AnimateZero(未開源)??
簡單介紹:基于Animate Diff增加了位置相關的attention
AnimateAnything: Fine-Grained Open Domain Image Animation with Motion Guidance
機構(gòu):阿里
時間:2023.12.4
???https://animationai.github.io/AnimateAnything/???
簡單介紹:可以針對特定位置進行動態(tài)化,通過學習運動信息實現(xiàn)時序信息生成
LivePhoto: Real Image Animation with Text-guided Motion Control
機構(gòu):阿里
時間:2023.12.5
???https://xavierchen34.github.io/LivePhoto-Page/(未開源)??
簡單介紹:將參考圖,運動信息拼接作為輸入,來進行圖像的動態(tài)化
視頻風格化
Rerender A Video: Zero-Shot Text-Guided Video-to-Video Translation
機構(gòu):南洋理工
時間:2023.12.17
??https://www.mmlab-ntu.com/project/rerender/???
簡單介紹:基于SD+controlnet,結(jié)合cros-frame attention來風格化視頻序列
DCTNet
機構(gòu):阿里達摩院
時間:2022.7.6
???https://github.com/menyifang/DCT-Net/???
簡單介紹:基于GAN的框架做的視頻風格化,目前支持7種不同的風格
視頻編輯
主要是將深度圖或者其他條件圖(canny/hed),通過網(wǎng)絡注入Diffusion model中,控制整體場景生成,并通過prompt設計來控制主體目標的外觀。其中controlnet被遷移進入視頻編輯領域,出現(xiàn)了一系列controlnetvideo的工作。
Structure and Content-Guided Video Synthesis with Diffusion Models
機構(gòu):Runway
時間:2023.2.6
???https://research.runwayml.com/gen1??
Animate diff+ControlNet(基于WebUI API)
Video-P2P: Video Editing with Cross-attention Control
機構(gòu):港中文,adobe
時間:2023.3.8
???https://video-p2p.github.io/??
Pix2Video: Video Editing using Image Diffusion
機構(gòu):Abode
時間:2023.3.22
???https://duyguceylan.github.io/pix2video.github.io/??
InstructVid2Vid: Controllable Video Editing with Natural Language Instructions
機構(gòu):浙大
時間:2023.5.21
ControlVideo: Training-free Controllable Text-to-Video Generation
機構(gòu):華為
時間:2023.5.22
???https://github.com/YBYBZhang/ControlVideo??
ControlVideo: Conditional Control for One-shot Text-driven Video Editing and Beyond
機構(gòu):清華
時間:2023.11.28
???https://github.com/thu-ml/controlvideo??
Control-A-Video: Controllable Text-to-Video Generation with Diffusion Models
時間:2023.12.6
???https://controlavideo.github.io/??
StableVideo: Text-driven Consistency-aware Diffusion Video Editing
機構(gòu):MSRA
時間:2023.8.18
???https://github.com/rese1f/StableVideo??
MagicEdit: High-Fidelity and Temporally Coherent Video Editing
機構(gòu):字節(jié)
時間:2023.8.28
???https://magic-edit.github.io/(未開源)??
GROUND-A-VIDEO: ZERO-SHOT GROUNDED VIDEO EDITING USING TEXT-TO-IMAGE DIFFUSION MODELS
機構(gòu):KAIST
時間:2023.10.2
???https://ground-a-video.github.io/??
FateZero: Fusing Attentions for Zero-shot Text-based Video Editing
機構(gòu):騰訊AI Lab
時間:2023.10.11
???https://fate-zero-edit.github.io??
Motion-Conditioned Image Animation for Video Editing
機構(gòu):Meta
時間:2023.11.30
facebookresearch.github.io/MoCA(未開源)
VidEdit: Zero-shot and Spatially Aware Text-driven Video Editing
機構(gòu):Sorbonne Université, Paris, France
時間:2023.12.15
???https://videdit.github.io??
Zero-Shot Video Editing Using Off-The-Shelf Image Diffusion Models
時間:2024.1.4
???https://github.com/baaivision/vid2vid-zero??
人物動態(tài)化
主要是通過人體姿態(tài)作為條件性輸入(結(jié)合controlnet等),將一張圖作為前置參考圖,或者直接使用文本描述生成圖片。其中阿里和字節(jié)分別有幾篇代表性論文,其中字節(jié)的代碼有兩篇已經(jīng)開源,阿里的代碼還在等待階段。
- Follow Your Pose
機構(gòu):騰訊AI Lab
時間:2023.4.3
???https://follow-your-pose.github.io/??
DreamPose: Fashion Image-to-Video Synthesis via Stable Diffusion
機構(gòu):google,nvidia
時間:2023.5.4
???https://grail.cs.washington.edu/projects/dreampose/??
DISCO: Disentangled Control for Realistic Human Dance Generation
機構(gòu):微軟
時間:2023.10.11
???https://disco-dance.github.io??
MagicAnimate: Temporally Consistent Human Image Animation using Diffusion Model
機構(gòu):字節(jié)
時間:2023.11.27
???https://showlab.github.io/magicanimate/??
MaigcDance
機構(gòu):字節(jié)
時間:2023.11.18
???https://boese0601.github.io/magicdance/??
Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation
機構(gòu):阿里
時間:2023.12.7
???https://humanaigc.github.io/animate-anyone/(未開源)??
DreaMoving: A Human Video Generation Framework based on Diffusion Model
機構(gòu):阿里
時間:2023.12.11
???https://dreamoving.github.io/dreamoving(未開源)??
長視頻生成
NUWA-XL: Diffusion over Diffusion for eXtremely Long Video Generation
機構(gòu):微軟亞研院
時間:2023.3.22
???https://msra-nuwa.azurewebsites.net/??
Latent Video Diffusion Models for High-Fidelity Long Video Generation
機構(gòu):騰訊AI Lab
時間:2023.3.20
Gen-L-Video: Multi-Text to Long Video Generation via Temporal Co-Denoising
機構(gòu):上海AI Lab
時間:2023.3.29
??https://github.com/G-U-N/Gen-L-Video??
Sora(OpenAI)
時間:2024.2
???https://openai.com/sora(未開源)??
Latte: Latent Diffusion Transformer for Video Generation
機構(gòu):上海AI Lab
時間:2024.1.5
???https://maxin-cn.github.io/latte_project??
四、算法效果分析
本章節(jié)選擇了一些代表性的方法進行效果分析
Animate Diff
效果:??https://animatediff.github.io/??,支持文生視頻,圖生視頻,以及和controlnet結(jié)合做視頻編輯
Animate Diff+ControlNet
輸入視頻:moonwalk.mp4?
輸出樣例
注意:要輸入主語保證主體一致性
AnimateAnything
能夠指定圖片的運動區(qū)域,根據(jù)文本進行圖片的動態(tài)化
效果:
Stable Video Diffusion
能夠基于靜止圖片生成25幀的序列(576x1024)
效果:
圖片
ControlVideo
輸入+輸出樣例:500.mp4,300.mp4,整體效果不錯
問題:因為推理過程需要額外的訓練,消耗時間久,第一個視頻需要50min(32幀),第二個視頻需要14min(8幀)
Rerender A Video
整體效果還可以,運行速度和視頻幀數(shù)有關,10s視頻大約在20min左右。
DCTNet
效果:整體畫面穩(wěn)定,支持7種風格,顯存要求低(6-7G),上面視頻40s左右就可以處理完
DreamPose
Animate Anyone
MagicDance
輸入圖片:
輸出:
Sora
效果:https://openai.com/sora?
能夠生成長視頻,質(zhì)量很好,但是尚未開源
五、總結(jié)和展望
- 文生視頻和圖生視頻算法:其中Animate Diff,VideoCrafter等已經(jīng)開源,支持文/圖生成視頻,并且經(jīng)過測試效果還不錯,同時圖生視頻還支持通過結(jié)合不同的base模型實現(xiàn)視頻的風格化。不過生成的視頻幀數(shù)基本都在2s以內(nèi),可以作為動圖的形式進行展示。其中Stable Video Diffusion是stability ai開源的一個圖生視頻的算法,效果相對更加逼真,視頻質(zhì)量更高,但是視頻長度依舊很短。
- 視頻編輯算法:比如基于controlnet的可控生成視頻可以初步達到預期的效果,支持實現(xiàn)特定目標或者屬性(顏色等)的更換,也支持人物的換裝(比如顏色描述)等等,其中生成的視頻長度和GPU顯存相關。
- 視頻風格化:基于diffusion 模型的視頻風格化效果最好的是rerender a video,可以支持prompt描述來進行視頻的風格化,整體來講這個方法對人臉和自然環(huán)境有比較好的效果,運行成本也相對較低(相較于視頻編輯算法)
- 特定的人物動態(tài)化算法:目前demo效果最好的animate anyone和dream moving都還沒有開源。不過這兩個算法都對外開放了使用接口,比如通義千問app以及modelscope平臺。重點介紹一下通義實驗室的Dream moving,??https://www.modelscope.cn/studios/vigen/video_generation/summary??是其開放的使用平臺,里面支持同款的動作生成,圖生視頻,視頻的風格化以及視頻賀卡等功能,整體來講效果很好。而目前開源的方法中,測試的效果最好的是MagicDance,但是人臉有一定的模糊,距離animate anyone和dream moving展示的效果還有差距。
- 長視頻算法:隨著Sora的出現(xiàn),Diffusion Transformer的架構(gòu)后續(xù)會備受關注,目前大部分算法都局限于2s左右的短視頻生成,而且質(zhì)量上不如Sora。后續(xù)會有更多的算法將Sora的思路融入現(xiàn)有的方法中,不斷提升視頻質(zhì)量和視頻長度。不過目前sora的模型和實現(xiàn)細節(jié)并沒有在技術報告中公開,因此在未來還會有一段的摸索路要走。
- 整體總結(jié):
是否可用 | 優(yōu)勢 | 劣勢 | 適用場景 | 代表性方法 | |
文/圖生視頻 | 是 | 視頻質(zhì)量高 | 視頻長度短 | 短視頻動態(tài)封面 | Animate Diff(可擴展性強) VideoCrafter(質(zhì)量較好) Stable Video Diffusion(質(zhì)量更好) |
視頻編輯算法 | 待定 | 算法種類多,可實現(xiàn)的功能多(修改任意目標的屬性) | 推理速度較慢,顯存要求高,視頻長度短 | 人物換裝(最簡單的改變衣服顏色),目標編輯,用戶體驗 | ControlVideo(效果好但運行時間久) |
視頻風格化 | 是 | 顯存要求相對視頻編輯更低,推理速度更快。 | 畫面存在一定的不穩(wěn)定問題。但是基于GAN的DCTNet相對更穩(wěn)定 | 用戶體驗 | Rerender-A-Video(更靈活) DCTNet(效果更穩(wěn)定) |
人物動態(tài)化 | 待定 | 用戶可玩性高 | 效果最好的代碼暫時沒有開源,開源的代碼生成的人臉會有一定的模糊 | 用戶體驗 | Animate Anyone(待開源) DreamMoving(待開源) MagicDance(已開源) |
長視頻生成 | 否 | 視頻長度遠超2s | 整體質(zhì)量偏差 (Sora還沒開源) | 影視制作 | Sora |
本文轉(zhuǎn)載自大淘寶技術,作者:壹水
