自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭

新聞 人工智能
雖然和真正的高速攝像機(jī)至少上千的幀數(shù)沒法比,但它完全可以做到每秒53幀的視頻輕輕松松變成960幀,沒有偽影也沒有噪聲。

 [[424523]]

本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

要制作慢動作視頻就必須要用死貴的高速攝像機(jī)

NO! 可以用AI。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為
53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為
53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

看到?jīng)],這就是AI完成的效果!

雖然和真正的高速攝像機(jī)至少上千的幀數(shù)沒法比,但它完全可以做到每秒53幀的視頻輕輕松松變成960幀沒有偽影也沒有噪聲。

很多網(wǎng)友看完效果都按耐不住了:“非常想要一個(gè)深入的教程”、“能不能出一個(gè)應(yīng)用程序?”……

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為
53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

而這項(xiàng)酷斃的研究成果也成功入選CVPR 2021,研究人員來自華為蘇黎世研究中心和蘇黎世大學(xué)。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

當(dāng)然,也用了一個(gè)特殊的攝像頭

實(shí)現(xiàn)這一效果沒有采用通過視頻光流來猜測粒子運(yùn)動的經(jīng)典思想,而是先用了兩個(gè)攝像頭來捕捉畫面。

一個(gè)就是普通攝像頭,記錄低幀(20-60FPS)真實(shí)畫面;

要想達(dá)到慢動作效果,起碼得每秒300張畫面才夠;20幀的視頻給的信息太少了,沒法直接合成慢動作。

怎么辦?靠另一個(gè)特殊的攝像頭——

也就是事件相機(jī)(也稱為神經(jīng)形態(tài)相機(jī)),它使用新型的傳感器,拍攝的是“事件”,也就是記錄像素亮度變化。

事件相機(jī)還比較新興,實(shí)驗(yàn)室里有很多,市場上還沒有大規(guī)模問世,報(bào)價(jià)有2000美元一個(gè)或更高。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

由于該相機(jī)記錄的信息經(jīng)過壓縮表示,因此可以較低的清晰度、高速率進(jìn)行拍攝,也就是犧牲圖像質(zhì)量換取更多圖像信息。

最終的信息量足夠AI理解粒子的運(yùn)動,方便后續(xù)插值。

這倆相機(jī)同步拍攝到的內(nèi)容合起來就是這樣的:

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

拍好以后,就可以使用機(jī)器學(xué)習(xí)來最大化地利用這兩種相機(jī)的信息進(jìn)行插幀了。

研究人員在這里提出的AI模型叫做Time Lens ,一共分為四塊。

首先,將倆相機(jī)拍到的幀信息和事件信息發(fā)送到前兩個(gè)模塊:基于變形(warp)的插值模塊和合成插值模塊。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

基于變形的插值模塊利用U形網(wǎng)絡(luò)將運(yùn)動轉(zhuǎn)換為光流表示,然后將事件轉(zhuǎn)換成真實(shí)的幀。

合成插值模塊也是利用U形網(wǎng)絡(luò)將事件置于兩個(gè)幀之間,并直接為每個(gè)事件生成一個(gè)新的可能幀(現(xiàn)在就為同一事件生成兩個(gè)幀了)。

該模塊可以很好地處理幀之間出現(xiàn)的新對象以及光線變化(比如水反射啥的)。

不過到這里的話,合成的視頻可能會有一個(gè)問題:出現(xiàn)噪聲。

這時(shí),第三個(gè)模塊的作用就派上用場了,它使用第二個(gè)插值合成模塊中的新信息來細(xì)化第一個(gè)模塊。

也就是提取同一事件的兩個(gè)生成幀中最有價(jià)值的信息,進(jìn)行變形優(yōu)化——再次使用U-net網(wǎng)絡(luò)生成事件的第三個(gè)幀版本。

最后,這三個(gè)候選幀被輸入到一個(gè)基于注意力的平均模塊。

該模塊采用三幀表示中最好的部分將它們組成最終幀。

現(xiàn)在,有了幀之間第一個(gè)事件的高清幀后,再對事件相機(jī)提供的所有事件重復(fù)此過程,就能生成最終我們想要的結(jié)果了。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

這就是使用AI創(chuàng)建逼真的慢動作視頻的方法。怎么樣?

附一個(gè)攝像機(jī)的參數(shù)圖:

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

取得了智能手機(jī)和其他模型無法達(dá)到的效果

你說這個(gè)AI模型的效果好,那得對比一下才知道。

比如上面這個(gè)與最優(yōu)秀的插值模型之一的DAIN(入選CVPR 19)的對比,誰好誰壞效果就很明顯了。

而且它的插值方法的計(jì)算復(fù)雜度也是最優(yōu)的:圖像分辨率為640×480,在研究人員的GPU上進(jìn)行單個(gè)插值時(shí),DAIN模型需要878毫秒,該AI則只需要138毫秒。

另外,雖然不建議,用該模型輸入的視頻即使只有5幀,也可以生成慢動作。

53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為
53幀變900幀!AI讓你不用昂貴的高速攝像機(jī)也能制作慢鏡頭|華為

和其他模型的對比實(shí)驗(yàn)數(shù)據(jù),大家感興趣的可以查看論文。

最后,作者在介紹成果的視頻里也再次說道,不和昂貴的專業(yè)設(shè)備相比,該模型至少取得了智能手機(jī)和其他模型無法達(dá)到的效果。

作者介紹

一作Stepan Tulyakov,華為蘇黎世研究中心機(jī)器學(xué)習(xí)研究員。

[[424524]]

共同一作Daniel Gehrig,蘇黎世大學(xué)博士生。蘇黎世聯(lián)邦理工大學(xué)機(jī)械工程碩士。

[[424525]]

論文地址:

http://rpg.ifi.uzh.ch/docs/CVPR21_Gehrig.pdf

開源地址:

https://github.com/uzh-rpg/rpg_timelens

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2018-06-28 08:40:23

Raid機(jī)械硬盤

2020-01-29 19:35:17

開源技術(shù) 軟件

2021-04-15 11:13:07

人工智能AI智能攝像機(jī)

2020-05-28 17:25:08

安防AI機(jī)器視覺華為

2021-08-12 08:00:00

Pandas數(shù)據(jù)分析SQL

2022-10-25 10:32:56

人工智能攝像機(jī)

2021-06-04 14:52:33

物聯(lián)網(wǎng)安全網(wǎng)絡(luò)安全攝像機(jī)

2018-03-05 16:07:38

智能攝像機(jī)

2024-07-22 07:10:00

算法視頻修復(fù)AI

2021-03-24 14:58:42

數(shù)據(jù)翻譯人工智能

2015-05-12 15:57:33

2013-12-17 15:12:13

2014-06-09 10:34:45

HDLC

2010-07-01 21:51:43

網(wǎng)絡(luò)攝像機(jī)IP監(jiān)控D-Link

2013-11-28 11:09:28

2013-10-15 15:46:57

2015-08-18 15:13:10

2010-09-06 09:31:12

PPP數(shù)據(jù)幀

2010-06-08 16:35:24

LIN總線協(xié)議
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號