自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

完美摳圖王冰冰!字節(jié)實(shí)習(xí)生開發(fā)的AI,實(shí)現(xiàn)4K60幀視頻實(shí)時(shí)摳圖

新聞 人工智能
這是AI拿來視頻實(shí)時(shí)摳圖后的效果。沒想到吧,實(shí)時(shí)視頻摳圖,現(xiàn)在能精細(xì)到每一根發(fā)絲。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

看這一頭蓬松的秀發(fā),加上帥氣的動(dòng)作,你以為是在綠幕前拍大片?

No、No、No

這其實(shí)是AI拿來視頻實(shí)時(shí)摳圖后的效果。

沒想到吧,實(shí)時(shí)視頻摳圖,現(xiàn)在能精細(xì)到每一根發(fā)絲

換到alpha通道再看一眼,不用多說,德芙打錢吧(手動(dòng)狗頭)。

這就是來自字節(jié)跳動(dòng)實(shí)習(xí)生小哥的最新研究:實(shí)時(shí)高分辨率視頻摳圖大法。

無需任何輔助輸入,把視頻丟給這個(gè)名為RVM的AI,它分分鐘就能幫你把人像高精度摳出,將背景替換成可以任意二次加工的綠幕。

不信有這么絲滑?我們用線上Demo親自嘗試了一波。

相比之下,現(xiàn)在在線會(huì)議軟件里的摳圖,一旦頭發(fā)遮住臉,人就會(huì)消失……

頭發(fā)絲更是明顯糊了。

難怪看得網(wǎng)友直言:

不敢想象你們把這只AI塞進(jìn)手機(jī)里的樣子。

目前,這篇論文已經(jīng)入選WACV 2022。

你也可以上手一試

目前,RVM已經(jīng)在GitHub上開源,并給出了兩種試玩途徑:

于是我們也趕緊上手試了試。

先來看看效果:

首先來點(diǎn)難度低的。

對(duì)于這種人物在畫面中基本不移動(dòng)的情況,RVM可以說是表現(xiàn)的非常好,和人工摳圖幾乎無差別。

現(xiàn)在,王冰冰進(jìn)入動(dòng)森都毫不違和了。

于是開腦洞,也變得簡單了許多……

咳咳,言歸正傳。人物動(dòng)作幅度加大會(huì)怎樣呢?

對(duì)于多人舞蹈視頻而言,RVM的表現(xiàn)也很nice。

即便動(dòng)來動(dòng)去、頭發(fā)亂甩,也沒有影響它的摳圖效果。

只有在人物出現(xiàn)遮擋的情況下,才會(huì)出現(xiàn)瑕疵。

對(duì)比前輩方法MODNet,確實(shí)有不小的進(jìn)步。

不過我們也發(fā)現(xiàn),如果視頻的背景較暗,就會(huì)影響RVM的發(fā)揮。

比如在這種背景光線昏暗的情況下,摳圖的效果就非常不盡人意了。

可以看到,博主老哥的頭發(fā)完全糊了。

而且身體的邊界線也不夠清晰。

所以,如果你想自己拍視頻試玩,就一定要選擇光線充足的場景。

利用時(shí)間信息

那么這樣的“魔法”,具體又是如何實(shí)現(xiàn)的?

照例,我們先來扒一扒論文~

實(shí)際上,有關(guān)視頻摳圖的算法如今已不鮮見,其中大多數(shù)采用的是將視頻中的每一幀作為獨(dú)立圖像來實(shí)現(xiàn)摳圖的方法。

不同與此,在這篇論文中,研究人員構(gòu)建了一個(gè)循環(huán)架構(gòu),利用上了視頻的時(shí)間信息,在時(shí)間一致性摳圖質(zhì)量上取得了明顯改進(jìn)。

從上圖中可以看出,RVM的網(wǎng)絡(luò)架構(gòu)包括3個(gè)部分:

  • 特征提取編碼器,用來提取單幀特征;
  • 循環(huán)解碼器,用于匯總時(shí)間信息;
  • 深度引導(dǎo)濾波(DGF)模塊,用于高分辨率上采樣。

其中,循環(huán)機(jī)制的引入使得AI能夠在連續(xù)的視頻流中自我學(xué)習(xí),從而了解到哪些信息需要保留,哪些信息可以遺忘掉。

具體而言,循環(huán)解碼器采用了多尺度ConvGRU來聚合時(shí)間信息。其定義如下:

在這個(gè)編碼器-解碼器網(wǎng)絡(luò)中,AI會(huì)完成對(duì)高分辨率視頻的下采樣,然后再使用DGF對(duì)結(jié)果進(jìn)行上采樣。

除此之外,研究人員還提出了一種新的訓(xùn)練策略:同時(shí)使用摳圖和語義分割目標(biāo)數(shù)據(jù)集來訓(xùn)練網(wǎng)絡(luò)。

這樣做到好處在于:

首先,人像摳圖與人像分割任務(wù)密切相關(guān),AI必須學(xué)會(huì)從語義上理解場景,才能在定位人物主體方面具備魯棒性。

其次,現(xiàn)有的大部分摳圖數(shù)據(jù)集只提供真實(shí)的alpha通道和前景信息,所以必須對(duì)背景圖像進(jìn)行合成。但前景和背景的光照往往不同,這就影響了合成的效果。語義分割數(shù)據(jù)集的引入可以有效防止過擬合。

最后,語義分割數(shù)據(jù)集擁有更為豐富的訓(xùn)練數(shù)據(jù)。

經(jīng)過這一番調(diào)教之后,RVM和前輩們比起來,有怎樣的改進(jìn)?

從效果對(duì)比中就可以明顯感受到了:

另外,與MODNet相比,RVM更輕更快。

從下面這張表格中可以看出,在1080p視頻上RVM的處理速度是最快的,在512×288上比BGMv2略慢,在4K視頻上則比帶FGF的MODNet慢一點(diǎn)。研究人員分析,這是因?yàn)镽VM除了alpha通道外還預(yù)判了前景。

更直觀的數(shù)據(jù)是,在英偉達(dá)GTX 1080Ti上,RVM能以76FPS的速度處理4K視頻,以104FPS的速度處理HD視頻。

一作字節(jié)跳動(dòng)實(shí)習(xí)生

這篇論文是一作林山川在字節(jié)跳動(dòng)實(shí)習(xí)期間完成的。

[[420430]]

他本科、碩士均畢業(yè)于華盛頓大學(xué),曾先后在Adobe、Facebook等大廠實(shí)習(xí)。

2021年3月-6月,林山川在字節(jié)跳動(dòng)實(shí)習(xí)。8月剛剛?cè)肼毼④洝?/p>

事實(shí)上,林山川此前就曾憑借AI摳圖大法拿下CVPR 2021最佳學(xué)生論文榮譽(yù)獎(jiǎng)

他以一作身份發(fā)表論文《Real-Time High-Resolution Background Matting》,提出了Background Matting V2方法。

這一方法能夠以30FPS的速度處理4K視頻,以60FPS的速度處理HD視頻。

值得一提的是,Background Matting這一系列方法不止一次中了CVPR。此前,第一代Background Matting就被CVPR 2020收錄。

兩次論文的通訊作者都是華盛頓大學(xué)副教授Ira Kemelmacher-Shlizerman,她的研究方向?yàn)橛?jì)算機(jī)視覺、計(jì)算機(jī)圖形、AR/VR等。

[[420431]]

此外,本次論文的二作為Linjie Yang,他是字節(jié)跳動(dòng)的研究科學(xué)家。本科畢業(yè)于清華大學(xué),在香港中文大學(xué)獲得博士學(xué)位。

[[420432]]

對(duì)了,除了能在Colab上試用之外,你也可以在網(wǎng)頁版上實(shí)時(shí)感受一下這只AI的效果,地址拿好:

https://peterl1n.github.io/RobustVideoMatting/#/demo

GitHub地址:
https://github.com/PeterL1n/RobustVideoMatting
論文地址:
https://arxiv.org/abs/2108.11515
參考鏈接:
https://www.reddit.com/r/MachineLearning/comments/pdbpmg/r_robust_highresolution_video_matting_with/

 

 

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-12-16 16:13:49

人工智能機(jī)器學(xué)習(xí)技術(shù)

2020-10-23 15:29:48

iPad摳圖PC

2021-09-02 15:25:54

技術(shù)視頻摳圖

2020-12-07 17:32:24

AI視頻視頻摳圖

2018-01-03 10:00:39

深度學(xué)習(xí)摳圖消除背景

2025-04-18 09:21:00

2023-08-02 07:25:52

在線圖片編輯器

2020-04-07 14:45:35

開源摳圖 技術(shù)

2012-11-19 13:53:42

職場Google實(shí)習(xí)生

2021-01-03 17:24:01

人工智能AI

2020-06-18 15:53:06

Python代碼摳圖

2019-10-30 15:05:44

AI 數(shù)據(jù)人工智能

2015-04-14 15:05:35

Web前端開發(fā)騰訊暑期實(shí)習(xí)生

2024-01-09 15:51:56

Rust開發(fā)Trait

2024-07-11 16:33:50

2022-03-08 09:06:33

模型文本摳圖

2010-10-12 11:06:07

招聘

2013-06-07 09:59:40

Google實(shí)習(xí)面試

2021-11-27 07:09:39

P 圖工具工具應(yīng)用軟件

2024-12-04 13:30:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)