自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

新聞 人工智能
這篇論文提出了一種基于點的可微神經渲染流水線ADOP(Approximate Differentiable One-Pixel Point Rendering),用AI分析輸入圖像,并輸出新角度的新圖像。

本文經AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。

[[429616]]

先來看一段“視頻”,有沒有看出什么不對勁的地方?

其實,這僅僅是由一組照片渲染出來的(右下角為拍攝照片)!

生成的也不僅僅是一段視頻,更是一個3D場景模型,不僅能任意角度隨意切換、高清無死角,還能調節(jié)曝光、白平衡等參數,生成船新的照片:

在完全不同的場景下,例如一個坦克廠中,同樣能用一組照片渲染出逼真3D場景,相同角度與真實拍攝圖像幾乎“完全一致”:

要知道,之前蘋果雖然也做過一組照片生成目標物體3D模型的功能,但最多就是一件物體,例如一只箱子:

這次可是整個3D場景!

這是德國埃爾朗根-紐倫堡大學的幾位研究人員做的項目,效果一出就火得不行,在國外社交媒體上贊數超過5k,閱讀量達到36w+。

那么,這樣神奇的效果,究竟是怎么生成的呢?

用照片還原整個3D場景圖

整體來說,這篇論文提出了一種基于點的可微神經渲染流水線ADOP(Approximate Differentiable One-Pixel Point Rendering),用AI分析輸入圖像,并輸出新角度的新圖像。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

在輸入時,由于需要建模3D場景,因此這里的照片需要經過嚴格拍攝,來獲取整個場景的稀疏點云數據。

具體來說,作者在從照片獲取點云數據時,采用了COLMAP

先從多個不同的角度拍攝場景中的照片,其中每張照片的視角都會經過嚴格控制。

然后采用SfM(Structure From Motion,運動恢復結構)方法,來獲取相機內外參數,得到整個場景的3D重建數據,也就是表示場景結構的稀疏點云:

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

然后,包含點云等信息的場景數據會被輸入到流水線中,進行進一步的處理。

流水線(pipeline)主要分為三個部分:可微光柵化器、神經渲染器和可微色調映射器。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

首先,利用多分辨率的單像素點柵格化可微渲染器(可微光柵化器),將輸入的相機參數、重建的點云數據轉換成稀疏神經圖像。

其中,模型里關于圖像和點云對齊的部分,采用了NavVis數據集來訓練。

然后,利用神經渲染器,對稀疏神經圖像進行陰影計算和孔洞填充,生成HDR圖片。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

最后,由于不是每個設備都支持HDR畫面,因此在顯示到LDR設備之前,還需要利用基于物理的可微色調映射器改變動態(tài)范圍,將HDR圖像變成LDR圖像。

每個場景300+圖像訓練

這個新模型的優(yōu)勢在哪里?

由于模型的所有階段都可微,因此這個模型能夠優(yōu)化場景所有參數(相機模型、相機姿勢、點位置、點顏色、環(huán)境圖、渲染網絡權重、漸暈、相機響應函數、每張圖像的曝光和每張圖像的白平衡),并用來生成質量更高的圖像。

具體到訓練上,作者先是采用了688張圖片(包含73M個點)來訓練這個神經渲染流水線(pipeline)。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

針對demo中的幾個場景(火車、燈塔、游樂園、操場等),作者們分別用高端攝像機拍攝了300~350張全高清圖像,每個場景生成的像素點數量分別為10M、8M、12M和11M,其中5%的圖像用作測試。

也就是說,制作這樣一個3D場景,大約需要幾百張圖像,同時每張圖像的拍攝需要經過嚴格的角度控制。

不過仍然有讀者表示,拍幾百張圖像就能用AI做個場景出來,這個速度比當前人工渲染是要快多了。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

功能上,模型既能生成可以調節(jié)參數的新角度照片,還能自動插值生成全場景的3D渲染視頻,可以說是挺有潛力的。

那么,這個模型的效果與當前其他模型的渲染效果相比如何呢?

實時顯示1億+像素點場景

據作者表示,論文中采用的高效單像素點柵格化方法,使得ADOP能夠使用任意的相機模型,并實時顯示超過1億個像素點的場景。

肉眼分辨生成結果來看,采用同行幾個最新模型生成的圖片,或多或少會出現(xiàn)一些偽影或是不真實的情況,相比之下ADOP在細節(jié)上處理得都非常不錯:

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

從數據來看,無論是火車、操場、坦克還是燈塔場景,在ADOP模型的渲染下,在VGG、LPIPS和PSNR上幾乎都能取得最優(yōu)秀的結果(除了坦克的數據)。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

不過,研究本身也還具有一些局限性,例如單像素點渲染仍然存在點云稀疏時,渲染出現(xiàn)孔洞等問題。

但整體來看,實時顯示3D場景的效果還是非常出類拔萃的,不少業(yè)內人士表示“達到了AI渲染新高度”。

已經有不少網友開始想象這項研究的用途,例如給電影制片廠省去一大波時間和精力:

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

(甚至有電影系的學生想直接用到畢設上)

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

對游戲行業(yè)影響也非常不錯:

在家就能搞3A大作的場景,是不是也要實現(xiàn)了?簡直讓人迫不及待。

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

還有人想象,要是能在iPhone上實現(xiàn)就好了(甚至已經給iPhone 15預定上了):

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

對于研究本身,有網友從行外人視角看來,感覺更像是插幀模型(也有網友回應說差不多是這樣):

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

也有網友表示,由于需要的圖像比較多,效果沒有宣傳中那么好,對研究潛力持保留態(tài)度:

假3D場景逼真到火爆外網!超1億像素無死角,被贊AI渲染新高度

雖然目前作者們已經建立了GitHub項目,但代碼還沒有放出來,感興趣的同學們可以先蹲一波。

至于具體的開源時間,作者們表示“會在中了頂會后再放出來”。(祝這篇論文成功被頂會收錄~)

論文地址:
https://arxiv.org/abs/2110.06635

項目地址(代碼還沒po出來):
https://github.com/darglein/ADOP

 

 

責任編輯:張燕妮 來源: 量子位
相關推薦

2025-03-14 10:26:58

2022-08-03 13:52:22

AI建筑師

2015-09-14 16:12:12

云計算大數據高度

2024-03-20 15:51:00

AI數據

2020-11-25 15:58:59

AI 數據人工智能

2011-10-13 10:08:51

iOS 5iOS

2015-12-22 17:19:23

華為宿州

2024-03-13 10:03:02

3D訓練場景

2015-09-29 20:54:16

間諜航天探測器

2020-07-03 18:01:06

邊緣計算物聯(lián)網技術

2021-12-20 14:43:54

Goxel3D建模Linux

2025-01-17 13:39:58

2024-09-25 14:57:52

2017-09-19 14:05:24

web

2025-04-17 14:19:46

2017-03-19 15:47:50

神經網絡

2022-09-17 09:05:28

3D可視化工具

2011-04-26 14:21:20

3DJVC投影機

2024-12-10 15:17:11

點贊
收藏

51CTO技術棧公眾號