一句話讓小姐姐為我換了N套衣服,谷歌卷出視頻生成新高度,網(wǎng)友:競賽加碼
谷歌一出手,又把AI視頻生成卷上了新高度。
一句話生成視頻,現(xiàn)在在名為Lumiere的AI操刀下,可以是醬嬸的:
△“陽光明媚,帆船在湖中航行”
如此一致性和質量,再次點燃了網(wǎng)友們對AI視頻生成的熱情:谷歌加入戰(zhàn)局,又有好戲可看了。
不止是文生視頻,Lumiere把Pika的“一鍵換裝”也復現(xiàn)了出來。
左谷歌右pika,同樣是選中區(qū)域一句話完成視頻編輯,你pick哪一邊?
讓圖片中靜止的火焰躍動起來,也同樣一選就能完成:
還有圖片轉視頻:
視頻風格化:
總之就是主打一個質量又高又全能。
更多細節(jié),我們論文扒起~
用于視頻生成的時空擴散模型
Lumiere旨在解決以往視頻生成中存在的幾個關鍵問題:
- 真實性
- 多樣化
- 運動的連貫性
在此前的方法中,常見的做法是,擴散模型先生成一些稀疏的關鍵幀,而后通過一系列時間超分辨率(TSR)模型來填補關鍵幀之間的空白,接著再用空間超分辨率模型獲取高清視頻結果。
可以想見,在全局連貫性上,這樣的做法存在先天的缺陷。
Lumiere的創(chuàng)新點在于,提出了時空U-Net(STU-Net)架構:將視頻在空間和時間兩個維度同時進行下采樣和上采樣,在網(wǎng)絡的中間層得到視頻的壓縮時空表示。
具體來說,基于這一架構,模型能夠一次性生成視頻中的所有幀——這也就提升了生成視頻的連貫性。
同時,因為大部分計算發(fā)生在壓縮后的表示上,STU-Net能有效減少計算量,降低對計算和內存的需求。
另外,為了提升視頻的分辨率,研究人員使用多重擴散(MultiDiffusion)技術,通過線性加權空間超分辨率網(wǎng)絡來處理重疊時間窗口帶來的邊界偽影等問題,從而能將生成畫面融合為一個整體,得到連貫、高清的視頻效果。
時長和分辨率方面,Lumiere能輸出1024×1024、16fps下長5秒的視頻。
研究人員提到:
5秒已經(jīng)超過了大多數(shù)視頻作品中的平均鏡頭長度。
值得一提的是,得益于時空U-Net架構端到端全幀率視頻生成的能力和高效計算,Lumiere靈活可擴展,可以輕松應用到下游任務中,包括文生視頻、圖生視頻、視頻風格化、視頻編輯修復等等。
△視頻修復
實驗結果
研究人員將Lumiere與其他文本-視頻生成模型進行了實驗對比。
首先來看人類用戶的判斷。
實驗設計是這樣的:志愿者會同時看到一對視頻,一個來自Lumiere,另一個來自其他基線模型。志愿者被要求從中選出視覺質量、動態(tài)效果更好,更符合文本提示的視頻。
研究人員收集了大約400份反饋,結果顯示,在視頻質量、文本匹配度方面,Lumiere超越了Pika、Gen2、Imagen Video、SVD等一眾頂級視頻生成模型。
同時,在UCF101數(shù)據(jù)集(動作識別數(shù)據(jù)集)上,與MagicVideo、Make-A-Video、SVD等模型相比,Lumiere取得了具有競爭力的FVD和IS指標。
網(wǎng)友:谷歌,模型呢?
效果很驚艷,網(wǎng)友很興奮,但橋豆麻袋……
這次,谷歌依然只放出了論文,沒有試玩,更沒有開源。
這種似曾相識的操作,把人快整麻了:
視頻很不錯,但是谷歌,你又不打算發(fā)布任何代碼、權重,也不提供API了,對嗎?
還有人想起了Gemini發(fā)布時那個造假的小藍鴨視頻……
那么,這波你還會看好谷歌嗎?
論文地址:https://arxiv.org/abs/2401.12945項目地址:
https://lumiere-video.github.io/#section_video_stylization