自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

4K畫質(zhì)3D合成視頻不再卡成幻燈片,新方法將渲染速度提高了30多倍

人工智能 新聞
本文提出了一種突破性的點云表示 4K4D,能夠以 4K 分辨率對動態(tài) 3D 場景進行高保真實時渲染,達到了前所未有的渲染速度和令人印象深刻的渲染質(zhì)量。

當 4K 畫質(zhì)、60 幀視頻在某些 APP 上還只能開會員觀看時,AI 研究者已經(jīng)把 3D 動態(tài)合成視頻做到了 4K 級別,而且畫面相當流暢。

圖片

圖片

在現(xiàn)實生活中,我們接觸的大多數(shù)視頻都是 2D 的。在觀看這種視頻時,我們是沒有辦法選擇觀看視角的,比如走到演員中間,或者走到空間的某個角落。VR、AR 設(shè)備的出現(xiàn)彌補了這一缺陷,它們提供的 3D 視頻允許我們變換視角、甚至隨意走動,沉浸感大大提升。

但是,這種 3D 動態(tài)場景的合成一直是個難點,無論是在畫質(zhì)上還是流暢度上。

最近,來自浙江大學、像衍科技和螞蟻集團的研究者對這個問題發(fā)起了挑戰(zhàn)。在一篇題為「4K4D: Real-Time 4D View Synthesis at 4K Resolution」的論文中,他們提出了一種名為4K4D的點云表示方法,大大提升了高分辨率3D動態(tài)場景合成的渲染速度。具體來說,使用 RTX 4090 GPU,他們的方法能以 4K 分辨率進行渲染,幀率可達80 FPS;以1080p分辨率進行渲染時,幀率可達400FPS??傮w來看,它的速度是以前方法的30多倍,而且渲染質(zhì)量達到了SOTA。

圖片

以下是論文簡介。

論文概覽

圖片


  • 論文鏈接:https://arxiv.org/pdf/2310.11448.pdf
  • 項目鏈接:https://zju3dv.github.io/4k4d/

動態(tài)視圖合成旨在從捕獲的視頻中重建動態(tài) 3D 場景,并創(chuàng)建沉浸式虛擬回放,這是計算機視覺和計算機圖形學中長期研究的問題。這種技術(shù)實用性的關(guān)鍵在于它能夠以高保真度實時渲染,使其能夠應(yīng)用于 VR/AR、體育廣播和藝術(shù)表演捕捉。傳統(tǒng)方法將動態(tài) 3D 場景表示為紋理網(wǎng)格序列,并使用復(fù)雜的硬件進行重建。因此,它們通常僅限于受控環(huán)境。

最近,隱式神經(jīng)表示在通過可微渲染從 RGB 視頻重建動態(tài) 3D 場景方面取得了巨大成功。例如《Neural 3d video synthesis from multi-view video》將目標場景建模為動態(tài)輻射場,利用體渲染合成圖像,并與輸入圖像進行對比優(yōu)化。盡管動態(tài)視圖合成結(jié)果令人印象深刻,但由于網(wǎng)絡(luò)評估昂貴,現(xiàn)有方法通常需要幾秒鐘甚至幾分鐘才能以 1080p 分辨率渲染一張圖像。

受靜態(tài)視圖合成方法的啟發(fā),一些動態(tài)視圖合成方法通過降低網(wǎng)絡(luò)評估的成本或次數(shù)來提高渲染速度。通過這些策略,MLP Maps 能夠以 41.7 fps 的速度渲染前景動態(tài)人物。然而,渲染速度的挑戰(zhàn)仍然存在,因為 MLP  Maps 的實時性能只有在合成中等分辨率(384×512)的圖像時才能實現(xiàn)。當渲染 4K 分辨率的圖像時,它的速度降低到只有 1.3 FPS。

在這篇論文中,研究者提出了一種新的神經(jīng)表示 ——4K4D,用于建模和渲染動態(tài) 3D 場景。如圖 1 所示,4K4D 在渲染速度上明顯優(yōu)于以前的動態(tài)視圖合成方法,同時在渲染質(zhì)量上具有競爭力。

圖片

作者表示,他們的核心創(chuàng)新在于 4D 點云表示和混合外觀模型。具體而言,對于動態(tài)場景,他們使用空間雕刻算法獲得粗點云序列,并將每個點的位置建模為可學習向量。他們還引入 4D 特征網(wǎng)格,為每個點分配特征向量,并將其輸入 MLP 網(wǎng)絡(luò),以預(yù)測點的半徑、密度和球諧函數(shù)(SH)系數(shù)。4D 特征網(wǎng)格自然地在點云上應(yīng)用了空間正則化,使得優(yōu)化更加穩(wěn)健?;?4K4D,研究者開發(fā)了一種可微深度剝離算法,利用硬件光柵化實現(xiàn)前所未有的渲染速度。

研究者發(fā)現(xiàn),基于 MLP 的 SH 模型難以表示動態(tài)場景的外觀。為了緩解這個問題,他們還引入了一個圖像混合模型來與 SH 模型結(jié)合,以表示場景的外觀。一個重要的設(shè)計是,他們使圖像混合網(wǎng)絡(luò)獨立于觀看方向,因此可以在訓練后預(yù)先計算,以提高渲染速度。作為一把雙刃劍,該策略使圖像混合模型沿觀看方向離散。使用連續(xù) SH 模型可以彌補這個問題。與僅使用 SH 模型的 3D Gaussian Splatting 相比,研究者提出的混合外觀模型充分利用了輸入圖像捕獲的信息,從而有效地提高了渲染質(zhì)量。

為了驗證新方法的有效性,研究者在多個廣泛使用的多視圖動態(tài)新視圖合成數(shù)據(jù)集上評估了 4K4D,包括 NHR、ENeRF-Outdoo、DNA-Rendering 和 Neural3DV。廣泛的實驗表明,4K4D 不僅渲染速度快了幾個數(shù)量級,而且在渲染質(zhì)量方面也明顯優(yōu)于 SOTA 技術(shù)。使用 RTX 4090 GPU,新方法在 DNA-Rendering 數(shù)據(jù)集上達到 400 FPS,分辨率為 1080p;在 ENeRF-Outdoor 數(shù)據(jù)集上達到 80 FPS,分辨率為 4k。

方法介紹

給定捕獲動態(tài) 3D 場景的多視圖視頻,本文旨在重建目標場景并實時地進行視圖合成。模型架構(gòu)圖如圖 2 所示:

圖片

接著文中介紹了用點云建模動態(tài)場景的相關(guān)知識,他們從 4D 嵌入、幾何模型以及外觀模型等角度展開。

4D 嵌入:給定目標場景的粗點云,本文使用神經(jīng)網(wǎng)絡(luò)和特征網(wǎng)格表示其動態(tài)幾何和外觀。具體來說,本文首先定義了六個特征平面 θ_xy、θ_xz、θ_yz、θ_tx、θ_ty 和 θ_tz,并采用 K-Planes 策略,利用這六個平面來建模一個 4D 特征場 Θ(x, t):

圖片

幾何模型:基于粗點云,動態(tài)場景幾何結(jié)構(gòu)通過學習每個點上的三個屬性(entries)來表示,即位置 p ∈ R^3 、半徑 r ∈ R 和密度 σ ∈ R。然后借助這些點,計算空間點 x 的體積密度。點位置 p 被建模為一個可優(yōu)化的向量。通過將 Eq.(1) 中的特征向量 f 饋送到 MLP 網(wǎng)絡(luò)中來預(yù)測半徑 r 和密度 σ。

外觀模型:如圖 2c 所示,本文使用圖像混合技術(shù)和球諧函數(shù)(SH)模型來構(gòu)建混合外觀模型,其中圖像混合技術(shù)表示離散視圖外觀 c_ibr,SH 模型表示連續(xù)的依賴于視圖的外觀 c_sh。對于第 t 幀處的點 x,其在視圖方向 d 上的顏色為:

圖片

可微深度剝離

本文提出的動態(tài)場景表示借助深度剝離算法可以渲染成圖像。

研究者開發(fā)了一個自定義著色器來實現(xiàn)由 K 個渲染通道組成的深度剝離算法。即對于一個特定的像素 u,研究者進行了多步處理,最后,經(jīng)過 K 次渲染后,像素 u 得到一組排序點 {x_k|k = 1, ..., K}。

基于這些點 {x_k|k = 1, ..., K},得到體渲染中像素 u 的顏色表示為:

圖片

在訓練過程中,給定渲染的像素顏色 C (u),本文將其與真實像素顏色 C_gt (u) 進行比較,并使用以下?lián)p失函數(shù)以端到端的方式優(yōu)化模型:

圖片

除此以外,本文還應(yīng)用了感知損失:

圖片

以及掩碼損失:

圖片

最終的損失函數(shù)定義為:

圖片

實驗及結(jié)果

本文在 DNA-Rendering、ENeRF-Outdoor、 NHR 以及 Neural3DV 數(shù)據(jù)集上評估了 4K4D 方法。

在 DNA-Rendering 數(shù)據(jù)集上的結(jié)果如表 1 所示,結(jié)果顯示,4K4D 渲染速度比具有 SOTA 性能的 ENeRF 快 30 多倍,并且渲染質(zhì)量還更好。

圖片

在 DNA-Rendering 數(shù)據(jù)集上的定性結(jié)果如圖 5 所示,KPlanes 無法對 4D 動態(tài)場景下的詳細外觀和幾何形狀進行恢復(fù),而其他基于圖像的方法產(chǎn)生了高質(zhì)量的外觀。然而,這些方法往往會在遮擋和邊緣周圍產(chǎn)生模糊的結(jié)果,導(dǎo)致視覺質(zhì)量下降,相反,4K4D 可以在超過 200 FPS 的情況下產(chǎn)生更高保真度的渲染。

圖片

接下來,實驗展示了不同方法在 ENeRFOutdoor 數(shù)據(jù)集上的定性和定量結(jié)果。如表 2 所示,4K4D 在以超過 140 FPS 的速度進行渲染時仍然取得了明顯更好的結(jié)果。

圖片

而其他方法,如 ENeRF 產(chǎn)生了模糊的結(jié)果;IBRNet 的渲染結(jié)果包含圖像邊緣周圍的黑色偽影,如圖 3 所示;K-Planse 無法重建動態(tài)人體以及不同的背景區(qū)域。

圖片

表 6 展示了可微深度剝離算法的有效性,4K4D 比基于 CUDA 的方法快 7 倍以上。

圖片

本文還在表 7 中報告了 4K4D 在不同分辨率的不同硬件(RTX 3060、3090 和 4090)上的渲染速度。

圖片

更多細節(jié)請參見原論文。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2013-05-31 09:36:13

Jquery3D效果

2011-08-26 14:50:23

2023-12-29 13:18:23

模型NeRFTICD

2009-02-09 17:45:12

Impressive播放幻燈片 SourceForg

2019-12-10 09:47:51

IaaS云計算物聯(lián)網(wǎng)

2013-06-25 11:21:35

Android開發(fā)幻燈片效果Gallery

2020-10-15 06:00:22

LinuxLinux終端幻燈片

2023-11-27 13:43:00

AI模型

2025-01-10 14:00:00

3D模型生成

2024-02-07 13:37:39

AWS系統(tǒng)應(yīng)用程序

2020-08-21 10:59:10

微軟服務(wù)器運維

2012-08-01 10:51:20

投影

2011-07-13 17:09:34

WPS幻燈片

2009-12-31 16:18:44

Silverlight

2011-05-26 10:55:39

2025-01-09 12:32:18

2014-10-29 11:46:00

2013-04-03 11:12:57

Java幻燈片切換

2011-01-21 10:50:59

Windows 8
點贊
收藏

51CTO技術(shù)棧公眾號