4K畫質(zhì)3D合成視頻不再卡成幻燈片,新方法將渲染速度提高了30多倍
當 4K 畫質(zhì)、60 幀視頻在某些 APP 上還只能開會員觀看時,AI 研究者已經(jīng)把 3D 動態(tài)合成視頻做到了 4K 級別,而且畫面相當流暢。
在現(xiàn)實生活中,我們接觸的大多數(shù)視頻都是 2D 的。在觀看這種視頻時,我們是沒有辦法選擇觀看視角的,比如走到演員中間,或者走到空間的某個角落。VR、AR 設(shè)備的出現(xiàn)彌補了這一缺陷,它們提供的 3D 視頻允許我們變換視角、甚至隨意走動,沉浸感大大提升。
但是,這種 3D 動態(tài)場景的合成一直是個難點,無論是在畫質(zhì)上還是流暢度上。
最近,來自浙江大學、像衍科技和螞蟻集團的研究者對這個問題發(fā)起了挑戰(zhàn)。在一篇題為「4K4D: Real-Time 4D View Synthesis at 4K Resolution」的論文中,他們提出了一種名為4K4D的點云表示方法,大大提升了高分辨率3D動態(tài)場景合成的渲染速度。具體來說,使用 RTX 4090 GPU,他們的方法能以 4K 分辨率進行渲染,幀率可達80 FPS;以1080p分辨率進行渲染時,幀率可達400FPS??傮w來看,它的速度是以前方法的30多倍,而且渲染質(zhì)量達到了SOTA。
以下是論文簡介。
論文概覽
- 論文鏈接:https://arxiv.org/pdf/2310.11448.pdf
- 項目鏈接:https://zju3dv.github.io/4k4d/
動態(tài)視圖合成旨在從捕獲的視頻中重建動態(tài) 3D 場景,并創(chuàng)建沉浸式虛擬回放,這是計算機視覺和計算機圖形學中長期研究的問題。這種技術(shù)實用性的關(guān)鍵在于它能夠以高保真度實時渲染,使其能夠應(yīng)用于 VR/AR、體育廣播和藝術(shù)表演捕捉。傳統(tǒng)方法將動態(tài) 3D 場景表示為紋理網(wǎng)格序列,并使用復(fù)雜的硬件進行重建。因此,它們通常僅限于受控環(huán)境。
最近,隱式神經(jīng)表示在通過可微渲染從 RGB 視頻重建動態(tài) 3D 場景方面取得了巨大成功。例如《Neural 3d video synthesis from multi-view video》將目標場景建模為動態(tài)輻射場,利用體渲染合成圖像,并與輸入圖像進行對比優(yōu)化。盡管動態(tài)視圖合成結(jié)果令人印象深刻,但由于網(wǎng)絡(luò)評估昂貴,現(xiàn)有方法通常需要幾秒鐘甚至幾分鐘才能以 1080p 分辨率渲染一張圖像。
受靜態(tài)視圖合成方法的啟發(fā),一些動態(tài)視圖合成方法通過降低網(wǎng)絡(luò)評估的成本或次數(shù)來提高渲染速度。通過這些策略,MLP Maps 能夠以 41.7 fps 的速度渲染前景動態(tài)人物。然而,渲染速度的挑戰(zhàn)仍然存在,因為 MLP Maps 的實時性能只有在合成中等分辨率(384×512)的圖像時才能實現(xiàn)。當渲染 4K 分辨率的圖像時,它的速度降低到只有 1.3 FPS。
在這篇論文中,研究者提出了一種新的神經(jīng)表示 ——4K4D,用于建模和渲染動態(tài) 3D 場景。如圖 1 所示,4K4D 在渲染速度上明顯優(yōu)于以前的動態(tài)視圖合成方法,同時在渲染質(zhì)量上具有競爭力。
作者表示,他們的核心創(chuàng)新在于 4D 點云表示和混合外觀模型。具體而言,對于動態(tài)場景,他們使用空間雕刻算法獲得粗點云序列,并將每個點的位置建模為可學習向量。他們還引入 4D 特征網(wǎng)格,為每個點分配特征向量,并將其輸入 MLP 網(wǎng)絡(luò),以預(yù)測點的半徑、密度和球諧函數(shù)(SH)系數(shù)。4D 特征網(wǎng)格自然地在點云上應(yīng)用了空間正則化,使得優(yōu)化更加穩(wěn)健?;?4K4D,研究者開發(fā)了一種可微深度剝離算法,利用硬件光柵化實現(xiàn)前所未有的渲染速度。
研究者發(fā)現(xiàn),基于 MLP 的 SH 模型難以表示動態(tài)場景的外觀。為了緩解這個問題,他們還引入了一個圖像混合模型來與 SH 模型結(jié)合,以表示場景的外觀。一個重要的設(shè)計是,他們使圖像混合網(wǎng)絡(luò)獨立于觀看方向,因此可以在訓練后預(yù)先計算,以提高渲染速度。作為一把雙刃劍,該策略使圖像混合模型沿觀看方向離散。使用連續(xù) SH 模型可以彌補這個問題。與僅使用 SH 模型的 3D Gaussian Splatting 相比,研究者提出的混合外觀模型充分利用了輸入圖像捕獲的信息,從而有效地提高了渲染質(zhì)量。
為了驗證新方法的有效性,研究者在多個廣泛使用的多視圖動態(tài)新視圖合成數(shù)據(jù)集上評估了 4K4D,包括 NHR、ENeRF-Outdoo、DNA-Rendering 和 Neural3DV。廣泛的實驗表明,4K4D 不僅渲染速度快了幾個數(shù)量級,而且在渲染質(zhì)量方面也明顯優(yōu)于 SOTA 技術(shù)。使用 RTX 4090 GPU,新方法在 DNA-Rendering 數(shù)據(jù)集上達到 400 FPS,分辨率為 1080p;在 ENeRF-Outdoor 數(shù)據(jù)集上達到 80 FPS,分辨率為 4k。
方法介紹
給定捕獲動態(tài) 3D 場景的多視圖視頻,本文旨在重建目標場景并實時地進行視圖合成。模型架構(gòu)圖如圖 2 所示:
接著文中介紹了用點云建模動態(tài)場景的相關(guān)知識,他們從 4D 嵌入、幾何模型以及外觀模型等角度展開。
4D 嵌入:給定目標場景的粗點云,本文使用神經(jīng)網(wǎng)絡(luò)和特征網(wǎng)格表示其動態(tài)幾何和外觀。具體來說,本文首先定義了六個特征平面 θ_xy、θ_xz、θ_yz、θ_tx、θ_ty 和 θ_tz,并采用 K-Planes 策略,利用這六個平面來建模一個 4D 特征場 Θ(x, t):
幾何模型:基于粗點云,動態(tài)場景幾何結(jié)構(gòu)通過學習每個點上的三個屬性(entries)來表示,即位置 p ∈ R^3 、半徑 r ∈ R 和密度 σ ∈ R。然后借助這些點,計算空間點 x 的體積密度。點位置 p 被建模為一個可優(yōu)化的向量。通過將 Eq.(1) 中的特征向量 f 饋送到 MLP 網(wǎng)絡(luò)中來預(yù)測半徑 r 和密度 σ。
外觀模型:如圖 2c 所示,本文使用圖像混合技術(shù)和球諧函數(shù)(SH)模型來構(gòu)建混合外觀模型,其中圖像混合技術(shù)表示離散視圖外觀 c_ibr,SH 模型表示連續(xù)的依賴于視圖的外觀 c_sh。對于第 t 幀處的點 x,其在視圖方向 d 上的顏色為:
可微深度剝離
本文提出的動態(tài)場景表示借助深度剝離算法可以渲染成圖像。
研究者開發(fā)了一個自定義著色器來實現(xiàn)由 K 個渲染通道組成的深度剝離算法。即對于一個特定的像素 u,研究者進行了多步處理,最后,經(jīng)過 K 次渲染后,像素 u 得到一組排序點 {x_k|k = 1, ..., K}。
基于這些點 {x_k|k = 1, ..., K},得到體渲染中像素 u 的顏色表示為:
在訓練過程中,給定渲染的像素顏色 C (u),本文將其與真實像素顏色 C_gt (u) 進行比較,并使用以下?lián)p失函數(shù)以端到端的方式優(yōu)化模型:
除此以外,本文還應(yīng)用了感知損失:
以及掩碼損失:
最終的損失函數(shù)定義為:
實驗及結(jié)果
本文在 DNA-Rendering、ENeRF-Outdoor、 NHR 以及 Neural3DV 數(shù)據(jù)集上評估了 4K4D 方法。
在 DNA-Rendering 數(shù)據(jù)集上的結(jié)果如表 1 所示,結(jié)果顯示,4K4D 渲染速度比具有 SOTA 性能的 ENeRF 快 30 多倍,并且渲染質(zhì)量還更好。
在 DNA-Rendering 數(shù)據(jù)集上的定性結(jié)果如圖 5 所示,KPlanes 無法對 4D 動態(tài)場景下的詳細外觀和幾何形狀進行恢復(fù),而其他基于圖像的方法產(chǎn)生了高質(zhì)量的外觀。然而,這些方法往往會在遮擋和邊緣周圍產(chǎn)生模糊的結(jié)果,導(dǎo)致視覺質(zhì)量下降,相反,4K4D 可以在超過 200 FPS 的情況下產(chǎn)生更高保真度的渲染。
接下來,實驗展示了不同方法在 ENeRFOutdoor 數(shù)據(jù)集上的定性和定量結(jié)果。如表 2 所示,4K4D 在以超過 140 FPS 的速度進行渲染時仍然取得了明顯更好的結(jié)果。
而其他方法,如 ENeRF 產(chǎn)生了模糊的結(jié)果;IBRNet 的渲染結(jié)果包含圖像邊緣周圍的黑色偽影,如圖 3 所示;K-Planse 無法重建動態(tài)人體以及不同的背景區(qū)域。
表 6 展示了可微深度剝離算法的有效性,4K4D 比基于 CUDA 的方法快 7 倍以上。
本文還在表 7 中報告了 4K4D 在不同分辨率的不同硬件(RTX 3060、3090 和 4090)上的渲染速度。
更多細節(jié)請參見原論文。