自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

給1萬幀視頻做目標(biāo)分割,顯存占用還不到1.4GB,代碼已開源

人工智能 新聞
這就是伊利諾伊大學(xué)厄巴納-香檳分校學(xué)者最新提出的一種長視頻目標(biāo)分割方法XMem。

本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

咦,怎么好好的藤原千花,突然變成了“高溫紅色版”?

圖片

這大紫手,難道是滅霸在世??

圖片

如果你以為上面的這些效果只是對(duì)物體后期上色了,那還真是被AI給騙到了。

這些奇怪的顏色,其實(shí)是對(duì)視頻對(duì)象分割的表示。

但u1s1,這效果還真是讓人一時(shí)間分辨不出。

無論是萌妹子飛舞的發(fā)絲:

圖片

還是發(fā)生形狀改變的毛巾、物體之間來回遮擋:

圖片

AI對(duì)目標(biāo)的分割都稱得上是嚴(yán)絲合縫,仿佛是把顏色“焊”了上去。

不只是高精度分割目標(biāo),這種方法還能處理超過10000幀的視頻。

而且分割效果始終保持在同一水平,視頻后半段依舊絲滑精細(xì)。

圖片

更意外的是,這種方法對(duì)GPU要求不高。

研究人員表示實(shí)驗(yàn)過程中,該方法消耗的GPU內(nèi)存從來沒超過1.4GB

要知道,當(dāng)下基于注意力機(jī)制的同類方法,甚至都不能在普通消費(fèi)級(jí)顯卡上處理超過1分鐘的視頻。

這就是伊利諾伊大學(xué)厄巴納-香檳分校學(xué)者最新提出的一種長視頻目標(biāo)分割方法XMem。

目前已被ECCV 2022接收,代碼也已開源。

如此絲滑的效果,還在Reddit上吸引不少網(wǎng)友圍觀,熱度達(dá)到800+。

圖片

網(wǎng)友都在打趣說:

為什么要把你的手涂成紫色?

誰知道滅霸是不是有計(jì)算機(jī)視覺方面的愛好呢?

圖片

模仿人類記憶法

目前已有的視頻對(duì)象分割方法非常多,但是它們要么處理速度比較慢,要么對(duì)GPU要求高,要么精度不夠高。

而本文提出的方法,可以說是兼顧了以上三方面。

不僅能對(duì)長視頻快速進(jìn)行對(duì)象分割,畫面幀數(shù)可達(dá)到20FPS,同時(shí)在普通GPU上就能完成。

其特別之處在于,它受人類記憶模式所啟發(fā)。

1968年,心理學(xué)家阿特金森和希夫林提出多重存儲(chǔ)模型(Atkinson-Shiffrin memory model)。

該模型認(rèn)為,人類記憶可以分為3種模式:瞬時(shí)記憶、短期記憶和長期記憶。

參考如上模式,研究人員將AI框架也劃分出3種內(nèi)存方式。分別是:

  • 及時(shí)更新的瞬時(shí)內(nèi)存
  • 高分辨率工作內(nèi)存
  • 密集長期記憶內(nèi)存。

圖片

其中,瞬時(shí)內(nèi)存會(huì)每幀更新一次,來記錄畫面中的圖像信息。

工作內(nèi)存從瞬時(shí)內(nèi)存中收集畫面信息,更新頻率為每r幀一次。

當(dāng)工作內(nèi)存飽和時(shí),它會(huì)被壓縮轉(zhuǎn)移到長期內(nèi)存里。

而長期內(nèi)存也飽和時(shí),會(huì)隨著時(shí)間推移忘記過時(shí)的特征;一般來說這會(huì)在處理過數(shù)千幀后才會(huì)飽和。

這樣一來,GPU內(nèi)存也就不會(huì)因?yàn)闀r(shí)間推移而不足了。

通常,對(duì)視頻目標(biāo)進(jìn)行分割會(huì)給定第一幀的圖像和目標(biāo)對(duì)象掩碼,然后模型會(huì)跟蹤相關(guān)目標(biāo),為后續(xù)幀生成相應(yīng)的掩碼。

具體來看,XMem處理單幀畫面的過程如下:

圖片

整個(gè)AI框架由3個(gè)端到端卷積網(wǎng)絡(luò)組成。

一個(gè)查詢編碼器(Query encoder)用來追蹤提取查詢特定圖像特征。

一個(gè)解碼器(Decoder)負(fù)責(zé)獲取內(nèi)存讀取步驟的輸出,以生成對(duì)象掩碼。

一個(gè)值編碼器(Value encoder)可以將圖像和目標(biāo)的掩碼相結(jié)合,從而來提取新的內(nèi)存特征值。

最終值編碼器提取到的特征值會(huì)添加到工作內(nèi)存中。

從實(shí)驗(yàn)結(jié)果來看,該方法在短視頻和長視頻上,都實(shí)現(xiàn)了SOTA。

圖片

在處理長視頻時(shí),隨著幀數(shù)的增加,XMem的性能也沒有下降。

圖片

研究團(tuán)隊(duì)

作者之一為華人Ho Kei (Rex) Cheng。

圖片

他研究生畢業(yè)于香港科技大學(xué),目前在伊利諾伊大學(xué)厄巴納-香檳分校讀博。

研究方向?yàn)橛?jì)算機(jī)視覺。

他先后有多篇論文被CVPR、NeurIPS、ECCV等頂會(huì)接收。

另一位作者是 Alexander G. Schwing。

圖片

他現(xiàn)在是伊利諾伊大學(xué)厄巴納-香檳分校的助理教授,博士畢業(yè)于蘇黎世聯(lián)邦理工學(xué)院。

研究方向?yàn)闄C(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺。

論文地址:
https://arxiv.org/abs/2207.07115

GitHub:
https://github.com/hkchengrex/XMem

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2019-05-14 09:53:31

代碼開發(fā)工具

2021-11-10 15:24:25

AI 數(shù)據(jù)人工智能

2025-03-07 10:02:10

2021-11-08 10:15:50

代碼Windows 11Windows

2021-12-23 10:20:12

Windows 11代碼Windows

2016-03-07 13:49:19

2020-03-03 11:00:11

代碼開發(fā)工具

2012-03-16 16:22:55

筆記本評(píng)測

2024-07-09 09:36:17

2024-07-30 10:51:51

2011-10-28 15:08:10

喬布斯開源

2020-09-07 14:25:57

開源技術(shù) 數(shù)據(jù)

2022-05-06 15:14:20

視頻數(shù)據(jù)

2019-08-29 11:33:33

無人駕駛谷歌Uber

2025-03-27 12:20:25

2019-06-03 11:17:57

靜態(tài)頁面項(xiàng)目

2016-03-25 14:11:29

NVIDIA

2025-03-12 10:41:34

2024-10-10 14:56:39

2024-06-11 07:40:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)