自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

人工智能 新聞
這是谷歌的開(kāi)源3D物體數(shù)據(jù)集Objectron,包含15000份短視頻樣本,以及從五個(gè)大洲、十個(gè)國(guó)家里收集來(lái)的400多萬(wàn)張帶注釋的圖像。

  本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

[[352105]]

見(jiàn)過(guò)3D物體數(shù)據(jù)集,見(jiàn)過(guò)會(huì)動(dòng)的3D物體數(shù)據(jù)集嗎?

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

每段動(dòng)態(tài)視頻都以目標(biāo)為中心拍攝,不僅自帶標(biāo)注整體的邊界框,每個(gè)視頻還附帶相機(jī)位姿和稀疏點(diǎn)云。

這是谷歌的開(kāi)源3D物體數(shù)據(jù)集Objectron,包含15000份短視頻樣本,以及從五個(gè)大洲、十個(gè)國(guó)家里收集來(lái)的400多萬(wàn)張帶注釋的圖像。

谷歌認(rèn)為,3D目標(biāo)理解領(lǐng)域,缺少像2D中的ImageNet這樣的大型數(shù)據(jù)集,而Objectron數(shù)據(jù)集能在一定程度上解決這個(gè)問(wèn)題。

數(shù)據(jù)集一經(jīng)推出,1.6k網(wǎng)友點(diǎn)贊。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

有網(wǎng)友調(diào)侃,谷歌恰好在自己想“谷歌”這類數(shù)據(jù)集的時(shí)候,把它發(fā)了出來(lái)。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

也有團(tuán)隊(duì)前成員表示,很高興看到這樣的數(shù)據(jù)集和模型,給AR帶來(lái)進(jìn)步的可能。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

除此之外,谷歌還公布了用Objectron數(shù)據(jù)集訓(xùn)練的針對(duì)鞋子、椅子、杯子和相機(jī)4種類別的3D目標(biāo)檢測(cè)模型。

來(lái)看看這個(gè)數(shù)據(jù)集包含什么,以及谷歌提供的3D目標(biāo)檢測(cè)方案吧~(項(xiàng)目地址見(jiàn)文末)

9類物體,對(duì)AR挺友好

目前,這個(gè)數(shù)據(jù)集中包含的3D物體樣本,包括自行車,書(shū)籍,瓶子,照相機(jī),麥片盒子,椅子,杯子,筆記本電腦和鞋子。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

當(dāng)然,這個(gè)數(shù)據(jù)集,絕不僅僅只是一些以物體為中心拍攝的視頻和圖像,它具有如下特性:

注釋標(biāo)簽(3D目標(biāo)立體邊界框)

用于AR數(shù)據(jù)的數(shù)據(jù)(相機(jī)位姿、稀疏點(diǎn)云、二維表面)

數(shù)據(jù)預(yù)處理(圖像格式為tf.example,視頻格式為SequenceExample)

支持通過(guò)腳本運(yùn)行3D IoU指標(biāo)的評(píng)估

支持通過(guò)腳本實(shí)現(xiàn)Tensorflow、PyTorch、JAX的數(shù)據(jù)加載及可視化,包含“Hello World”樣例

支持Apache Beam,用于處理谷歌云(Google Cloud)基礎(chǔ)架構(gòu)上的數(shù)據(jù)集

所有可用樣本的索引,包括訓(xùn)練/測(cè)試部分,便于下載

圖像部分的畫(huà)風(fēng),基本是這樣的,也標(biāo)注得非常詳細(xì):

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

而在視頻中,不僅有從各個(gè)角度拍攝的、以目標(biāo)為中心的片段(從左到右、從下到上):

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

也有不同數(shù)量的視頻類型(一個(gè)目標(biāo)、或者兩個(gè)以上的目標(biāo)):

谷歌希望通過(guò)發(fā)布這個(gè)數(shù)據(jù)集,讓研究界能夠進(jìn)一步突破3D目標(biāo)理解領(lǐng)域,以及相關(guān)的如無(wú)監(jiān)督學(xué)習(xí)等方向的研究應(yīng)用。

怎么用?谷歌“以身示范”

拿到數(shù)據(jù)集的第一刻,并不知道它是否好用,而且總感覺(jué)有點(diǎn)無(wú)從下手?

別擔(dān)心,這個(gè)數(shù)據(jù)集的訓(xùn)練效果,谷歌已經(jīng)替我們?cè)囘^(guò)了。

看起來(lái)還不錯(cuò):

此外,谷歌將訓(xùn)練好的3D目標(biāo)檢測(cè)模型,也一并給了出來(lái)。(傳送見(jiàn)文末)

算法主要包括兩部分,第一部分是Tensorflow的2D目標(biāo)檢測(cè)模型,用來(lái)“發(fā)現(xiàn)物體的位置”;

第二部分則進(jìn)行圖像裁剪,來(lái)估計(jì)3D物體的邊界框(同時(shí)計(jì)算目標(biāo)下一幀的2D裁剪,因此不需要運(yùn)行每個(gè)幀),整體結(jié)構(gòu)如下圖:

谷歌AI最新3D数据集,1.5万张动图,让AR主宰你的生活

在模型的評(píng)估上,谷歌采用了Sutherland-Hodgman多邊形裁剪算法,來(lái)計(jì)算兩個(gè)立體邊界框的交點(diǎn),并計(jì)算出兩個(gè)立方體的相交體積,最終計(jì)算出3D目標(biāo)檢測(cè)模型的IoU

簡(jiǎn)單來(lái)說(shuō),兩個(gè)立方體重疊體積越大,3D目標(biāo)檢測(cè)模型效果就越好。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

這個(gè)模型是谷歌推出的MediaPipe中的一個(gè)部分,后者是一個(gè)開(kāi)源的跨平臺(tái)框架,用于構(gòu)建pipeline,以處理不同形式的感知數(shù)據(jù)。

它推出的MediaPipe Objectron實(shí)時(shí)3D目標(biāo)檢測(cè)模型,用移動(dòng)設(shè)備(手機(jī))就能進(jìn)行目標(biāo)實(shí)時(shí)檢測(cè)。

看,(他們玩得多歡快)實(shí)時(shí)目標(biāo)檢測(cè)的效果還不錯(cuò):

其他部分3D數(shù)據(jù)集

除了谷歌推出的數(shù)據(jù)集以外,此前視覺(jué)3D目標(biāo)領(lǐng)域,也有許多類型不同的數(shù)據(jù)集,每個(gè)數(shù)據(jù)集都有自己的特點(diǎn)。

例如斯坦福大學(xué)等提出的ScanNetV2,是個(gè)室內(nèi)場(chǎng)景數(shù)據(jù)集,而ScanNet則是個(gè)RGB-D視頻數(shù)據(jù)集,一共有21個(gè)目標(biāo)類,一共1513個(gè)采集場(chǎng)景數(shù)據(jù),可做語(yǔ)義分割和目標(biāo)檢測(cè)任務(wù)。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

而目前在自動(dòng)駕駛領(lǐng)域非常熱門的KITTI數(shù)據(jù)集,也是一個(gè)3D數(shù)據(jù)集,是目前最大的自動(dòng)駕駛場(chǎng)景下計(jì)算機(jī)視覺(jué)的算法評(píng)測(cè)數(shù)據(jù)集,包含市區(qū)、鄉(xiāng)村和高速公路等場(chǎng)景采集的真實(shí)圖像數(shù)據(jù)。

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

此外,還有Waymo、SemanticKITTI、H3D等等數(shù)據(jù)集,也都用在不同的場(chǎng)景中。(例如SemanticKITTI,通常被專門用于自動(dòng)駕駛的3D語(yǔ)義分割)

谷歌AI最新3D數(shù)據(jù)集,1.5萬(wàn)張動(dòng)圖,讓AR主宰你的生活

無(wú)論是視頻還是圖像,這些數(shù)據(jù)集的單個(gè)樣本基本包含多個(gè)目標(biāo),使用場(chǎng)景上也與谷歌的Objectron有所不同。

感興趣的小伙伴們,可以通過(guò)下方傳送門,瀏覽谷歌最新的3D目標(biāo)檢測(cè)數(shù)據(jù)集,以及相關(guān)模型~

Objectron數(shù)據(jù)集傳送門:
https://github.com/google-research-datasets/Objectron/

針對(duì)4種物體的3D目標(biāo)檢測(cè)模型:
https://google.github.io/mediapipe/solutions/objectron

 

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-07-16 12:02:11

2011-09-07 10:00:53

Ubuntu3D

2020-12-18 10:14:11

谷歌AR技術(shù)

2016-08-31 00:34:51

AR技術(shù)VR技術(shù)3D技術(shù)

2020-08-26 10:37:21

阿里3D

2021-03-05 16:14:08

AI 數(shù)據(jù)人工智能

2024-05-16 09:24:17

3D技術(shù)

2023-11-07 22:19:05

消息服務(wù)端care

2022-12-15 21:59:56

AIVR場(chǎng)景

2023-03-06 15:08:54

AI

2024-03-15 08:10:00

2021-08-10 15:40:50

AR蘋(píng)果谷歌

2021-09-14 10:11:46

谷歌3D舞蹈生成模型FACT

2011-09-22 10:07:52

奧圖碼投影儀

2011-12-21 12:46:43

2022-09-19 19:16:42

輪播圖has

2013-01-28 10:02:39

Wi-Fi無(wú)線網(wǎng)絡(luò)3D模型

2015-03-04 10:33:24

3D小熊七牛AR

2024-03-04 13:20:00

數(shù)據(jù)模型

2022-06-29 10:21:33

3d打印輔助工具
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)