超10秒高分辨率,北大Open Sora視頻生成更強了,還支持華為芯片
OpenAI 在今年年初扔出一項重大研究,Sora 將視頻生成帶入一個新的高度,很多人表示,現(xiàn)在的 OpenAI 一出手就是王炸。然而,眾多周知的是,OpenAI 一向并不 Open,關(guān)于 Sora 的更多細節(jié)我們無從得知。誰能率先發(fā)布類 Sora 研究成了一個熱門話題。
今年 3 月初,北大團隊聯(lián)合兔展啟動了 Sora 復現(xiàn)計劃 ——Open Sora Plan,該項目希望通過開源社區(qū)的力量復現(xiàn) Sora。
項目上線一個月,星標量已經(jīng)達到 6.6k。
- 項目地址:https://github.com/PKU-YuanGroup/Open-Sora-Plan
- 技術(shù)報告:https://github.com/PKU-YuanGroup/Open-Sora-Plan/blob/main/docs/Report-v1.0.0.md?
現(xiàn)在這個項目終于有了新成果,Open-Sora-Plan v1.0.0 來了,新研究顯著增強了視頻生成的質(zhì)量以及對文本的控制能力。研究者表示,他們正在訓練更高分辨率(>1024)以及更長時間(>10s)的視頻。目前該項目已支持國產(chǎn) AI 芯片(華為昇騰 910b)進行推理,下一步將支持國產(chǎn)算力訓練。
項目作者林彬表示:Open-Sora-Plan v1.0.0 可以生成1024×1024分辨率視頻,也能生成10 秒、24 FPS 的高清視頻。而且它還能夠生成高分辨率圖像。
下面我們看一下 v1.0.0 的效果(為了展示,動圖進行了一些壓縮,會損失一些質(zhì)量)。
文本到視頻生成
提示:沿海景觀從日出到黃昏過渡的延時拍攝……
文本到圖像生成(512×512 )
視頻重建(720×1280)
圖像重建(1536×1024):
在實現(xiàn)細節(jié)方面,通過團隊放出的技術(shù)報告,我們得知模型架構(gòu) CausalVideoVAE 概覽圖如下所示:
CausalVideoVAE 架構(gòu)繼承自 Stable-Diffusion Image VAE。為了保證 Image VAE 的預訓練權(quán)重能夠無縫應(yīng)用到 Video VAE 中,模型結(jié)構(gòu)設(shè)計如下:
CausalConv3D:將 Conv2D 轉(zhuǎn)換為 CausalConv3D,可以實現(xiàn)圖像和視頻數(shù)據(jù)的聯(lián)合訓練。CausalConv3D 對第一幀進行特殊處理,因為它無法訪問后續(xù)幀。
初始化:Conv2D 擴展到 Conv3D 常用的方法有兩種:平均初始化和中心初始化。但本文采用了特定的初始化方法 tail 初始化。這種初始化方法確保模型無需任何訓練就能夠直接重建圖像,甚至視頻。
訓練細節(jié):
上圖展示了 17×256×256 下兩種不同初始化方法的損失曲線。黃色曲線代表使用 tail init 損失,而藍色曲線對應(yīng)中心初始化損失。如圖所示,tail 初始化在損失曲線上表現(xiàn)出更好的性能。此外,該研究發(fā)現(xiàn)中心初始化會導致錯誤累積,導致在長時間內(nèi)崩潰。
訓練擴散模型。與之前的工作類似,該研究采用了多階段級聯(lián)訓練方法,總共消耗了 2048 A800 GPU 小時。研究發(fā)現(xiàn),圖像聯(lián)合訓練顯著加速了模型收斂并增強了視覺感知,這與 Latte 的研究結(jié)果一致。
?
不過,目前發(fā)布的 CausalVideoVAE(v1.0.0)有兩個主要缺點:運動模糊和網(wǎng)格效果。團隊正在改進這些缺點,后續(xù)版本很快就會上線。
本文轉(zhuǎn)自 機器之心 ,作者:機器之心
