AI將光子時間轉(zhuǎn)換成3D圖像,通過時間來可視化世界
近日,由格拉斯哥大學(xué)計算科學(xué)學(xué)院數(shù)據(jù)科學(xué)研究員Alex Turpin博士帶領(lǐng)的研究團隊研究團隊開發(fā)了一種嶄新的3D成像方法:通過捕獲有關(guān)光子的時間信息而不是其空間坐標來成像。
這種方法通過利用AI將時間轉(zhuǎn)換成三維空間的視覺,可以幫助汽車、移動設(shè)備和健康監(jiān)護儀器等提高360度的認知能力。
此項研究「Spatial images from temporal data」目前已在Optica雜志上發(fā)表。
論文鏈接:https://arxiv.org/pdf/1912.01413.pdf
通過光子的時間信息生成3D圖像,成像速度快
在我們生活中,照片和視頻通常是通過使用數(shù)字傳感器捕獲光子(光的構(gòu)建基塊)來制作的。比如,數(shù)碼相機由數(shù)百萬個像素組成,這些像素通過檢測空間每個點的光的強度和顏色來形成圖像。
然后,通過在拍攝對象周圍放置兩個或更多攝像機可以從多個角度對其進行拍攝,或者通過使用光流掃描場景并將其重構(gòu)三維來生成3D圖像。
無論哪種方式,我們拍攝的照片和視頻僅通過收集場景的空間信息來構(gòu)建圖像。
而研究人員此次是通過有關(guān)光子的時間信息來生成3D圖像,他們是如何做到的呢?
他們的實驗過程是使用了一個簡單且廉價的單像素檢測器,該檢測器經(jīng)過調(diào)整可充當(dāng)光子的秒表。
這個檢測器僅記錄由瞬間激光脈沖產(chǎn)生的光子從任意給定場景中的每個物體反彈并到達傳感器所需的時間。物體距離越遠,每個反射光子到達傳感器所花費的時間就越長。
有關(guān)場景中反射的每個光子的時間信息,研究人員稱為時間數(shù)據(jù),收集在一個非常簡單的圖形中。
然后,借助復(fù)雜的神經(jīng)網(wǎng)絡(luò)算法將這些圖轉(zhuǎn)換為3D圖像。研究人員通過向團隊展示數(shù)千張團隊人員在實驗室中移動和攜帶物體的常規(guī)照片,以及同時由單像素檢測器捕獲的時間數(shù)據(jù)來訓(xùn)練算法。
最終,網(wǎng)絡(luò)已經(jīng)足夠了解時間數(shù)據(jù)與照片的對應(yīng)關(guān)系,從而僅憑時間數(shù)據(jù)就可以創(chuàng)建高度準確的圖像。
在驗證原理的實驗中,盡管使用的硬件和算法有可能每秒產(chǎn)生數(shù)千張圖像,但研究人員設(shè)法從時間數(shù)據(jù)中以約10幀/秒的速度構(gòu)造了運動圖像。
Turpin 博士表示,我們手機中的相機通過使用數(shù)百萬個像素來形成圖像。如果僅考慮空間信息,則僅憑單個像素創(chuàng)建圖像是不可能的,因為單像素檢測器沒有任何信息。但是,這樣的檢測器仍然可以提供有關(guān)時間的有價值的信息。我們設(shè)法做的是找到一種新方法,可以將一維數(shù)據(jù),即簡單的時間測量,轉(zhuǎn)換成運動圖像,該圖像代表任何給定場景中空間的三個維度。
與傳統(tǒng)圖像制作不同的最重要方式是,該團隊的研究方法能夠?qū)⒐饩€與整個過程完全解耦。
Turpin 說道,「我們有信心該方法可以適用于能夠用短脈沖探測場景并精確測量回波的任何系統(tǒng),以全新的方式使用時間而非光來可視化世界」。
當(dāng)前,神經(jīng)網(wǎng)絡(luò)創(chuàng)建圖像的能力僅限于經(jīng)過訓(xùn)練以從研究人員創(chuàng)建的場景的時態(tài)數(shù)據(jù)中挑選出來的能力。
但是,通過進一步培訓(xùn)甚至使用更高級的算法,可以學(xué)習(xí)可視化各種場景,從而擴大其在現(xiàn)實世界中的潛在應(yīng)用。
Turpin 補充說,「收集時間數(shù)據(jù)的單像素檢測器體積小、重量輕、且價格便宜,這意味著它們可以輕松地添加到現(xiàn)有系統(tǒng)中,比如自動駕駛汽車的攝像頭,以提高尋路的準確性和速度。它們可以增強移動設(shè)備中現(xiàn)有的傳感器,比如 Google Pixel 4,這些傳感器已經(jīng)具有基于雷達技術(shù)的簡單手勢識別系統(tǒng)?!?/p>