自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

空間智能新進展:教機器人組裝宜家家具,首次實現(xiàn)操作步驟與真實視頻對齊

人工智能 機器人
IKEA Video Manuals數(shù)據(jù)集中,涵蓋了6大類36種IKEA家具,從簡單的凳子到復(fù)雜的柜子,呈現(xiàn)了不同難度的組裝任務(wù)。

斯坦福吳佳俊團隊,給機器人設(shè)計了一套組裝宜家家具的視頻教程!

具體來說,團隊提出了用于機器人的大型多模態(tài)數(shù)據(jù)集IKEA Video Manuals,已入選NeurIPS。

圖片圖片

數(shù)據(jù)集涵蓋了6大類IKEA家具,每種家具都包含完整的3D模型、組裝說明書和實際組裝視頻。

而且劃分精細,拆解出的安裝子步驟多達1000多個。

圖片圖片

作者介紹,該數(shù)據(jù)集首次實現(xiàn)了組裝指令在真實場景中的4D對齊,為研究這一復(fù)雜問題提供了重要基準。

知名科技博主、前微軟策略研究者Robert Scoble說,有了這個數(shù)據(jù)集,機器人將可以學(xué)會自己組裝家具。

圖片圖片

團隊成員、斯坦福訪問學(xué)者李曼玲(Manling Li)表示,這是空間智能領(lǐng)域的一項重要工作:

這項工作將組裝規(guī)劃從2D推進到3D空間,通過理解底層視覺細節(jié),解決了空間智能研究中的一個主要瓶頸。

圖片圖片

1120個子步驟詳述組裝過程

IKEA Video Manuals數(shù)據(jù)集中,涵蓋了6大類36種IKEA家具,從簡單的凳子到復(fù)雜的柜子,呈現(xiàn)了不同難度的組裝任務(wù)。

圖片圖片

每一款家具,都包括以下三種模態(tài):

  • 安裝說明書,提供了任務(wù)的整體分解和關(guān)鍵步驟;
  • 真實組裝視頻,展示了詳細的組裝過程;
  • 3D模型,定義了部件之間的精確空間關(guān)系。

并且這三種模態(tài)并非簡單地堆砌在一起,作者通過對視頻和操作步驟的拆解,將三種模態(tài)進行了精細的對齊。

圖片圖片

舉個例子,在這樣一條關(guān)于長凳的數(shù)據(jù)當中,包含了其基本概況、視頻信息、關(guān)鍵幀信息,以及安裝步驟。

從下圖中可以看出,安裝步驟當中有主要步驟和子步驟的劃分,還標注了對應(yīng)的視頻位置。

圖片圖片

整個數(shù)據(jù)集中,共包含了137個手冊步驟,根據(jù)安裝視頻被細分為了1120個具體子步驟,捕捉了完整的組裝過程。

并且通過6D Pose追蹤,每個部件的空間軌跡都被精確記錄,最終在視頻幀、家具組裝說明書和3D模型之間建立了密集的對應(yīng)關(guān)系。

時空信息精細標注

IKEA Video Manuals數(shù)據(jù)集是在IKEA-Manual和IKEA Assembly in the Wild(IAW)兩個數(shù)據(jù)集的基礎(chǔ)上建立的。

其中,IKEA-Manual數(shù)據(jù)集提供了模型及其對應(yīng)說明書,IAW則包含了大量用戶組裝宜家家具的視頻片段。

這些視頻來自90多個不同的環(huán)境,包括室內(nèi)外場景、不同光照條件,真實反映了家具組裝的多樣性。

圖片圖片

與在實驗室環(huán)境下采集的數(shù)據(jù)相比,這些真實視頻帶來了更豐富的挑戰(zhàn):

  • 部件經(jīng)常被手或其他物體遮擋;
  • 相似部件識別(如四條一模一樣的桌子腿);
  • 攝像機頻繁移動、變焦,帶來參數(shù)估計的困難;
  • 室內(nèi)外場景、不同光照條件下的多樣性。

圖片圖片


為了獲得高質(zhì)量的標注,應(yīng)對真實視頻帶來的挑戰(zhàn),研究團隊建立了一套可靠的標注系統(tǒng):

  • 識別并標注相機參數(shù)變化的關(guān)鍵幀,確保片段內(nèi)的一致性;
  • 結(jié)合2D-3D對應(yīng)點和RANSAC算法進行相機參數(shù)估計;
  • 通過多視角驗證和時序約束保證標注質(zhì)量。

圖片圖片

首先,研究者們首先定義了一套層次化的裝配過程描述框架,將整個裝配過程分為步驟、子步驟和視頻幀等多個層級。

作者首先從IAW數(shù)據(jù)集中提取每個手動步驟的視頻片段,并將每個視頻片段分解為更小的間隔(子步驟)。

對于每個子步驟,作者以1FPS的速度采樣視頻幀,并在每個子步驟的第一幀中標注出家具部件。

圖片圖片

為了在整個組裝視頻中對家具部件進行跟蹤,作者還在采樣幀中為3D部件注釋了2D圖像分割掩碼。

為了促進注釋過程,研究團隊開發(fā)了一個顯示輔助2D和3D信息的Web界面,同時該界面還可基于Segment Anything Model(SAM)模型進行交互式掩碼注釋。

圖片圖片

標注過程中,標注人員會在3D模型上選中零件,然后在2D視頻幀上指示其大致位置,并將其輸入到SAM模型中以實時生成2D分割掩碼。

為了解決SAM在提取具有相似紋理的部分之間或低光區(qū)域的邊界方面的固有局限,作者還允許標注人員使用畫筆和橡皮擦工具進行手動調(diào)整。

此外,作者還要估計視頻中的相機參數(shù),為此研究者們首先人工標記出視頻幀中可能出現(xiàn)相機運動(如焦距變化、切換視角等)的位置,然后標注出視頻幀和3D模型之間的2D-3D對應(yīng)關(guān)鍵點。

最后,結(jié)合這兩類標注信息,研究者們使用PnP (Perspective-n-Point)算法估計出每段視頻的相機內(nèi)參數(shù),得到相機參數(shù)的初始估計后,利用交互式工具來細化每個視頻幀中零件的6D姿態(tài)。

空間模型能力評估

基于IKEA Video Manuals數(shù)據(jù)集,團隊設(shè)計了多個核心任務(wù)來評估當前AI系統(tǒng)在理解和執(zhí)行家具組裝,以及空間推理(spatial reasoning)方面的能力。

首先是基于3D模型的分割(Segmentation)姿態(tài)估計 (Pose Estimation)

此類任務(wù)輸入3D模型和視頻幀,要求AI準確分割出特定部件區(qū)域,并估計其在視頻中的6自由度姿態(tài)。

圖片圖片

△上:基于3D模型的分割,下:基于3D模型的姿態(tài)估計

實驗測試了最新的分割模型(CNOS, SAM-6D)和姿態(tài)估計模型(MegaPose)。

分析發(fā)現(xiàn),它們在以下場景表現(xiàn)不佳:

  • 遮擋問題:手部遮擋、近距離拍攝導(dǎo)致部分可見、遮擋引起的深度估計誤差;
  • 特征缺失:缺乏紋理的部件難以分割、對稱部件的方向難以判斷;
  • 特殊拍攝角度(如俯視)導(dǎo)致的尺度誤判。

圖片圖片

△上:遮擋問題,左下:特征缺失,右下:特殊角度

第二類任務(wù)是視頻目標分割,作者對比測試了兩個最新的視頻追蹤模型SAM2和Cutie。

結(jié)果顯示,在真實組裝場景中,這些模型同樣面臨著三大挑戰(zhàn)。

一是相機的運動,可能導(dǎo)致目標丟失。

圖片圖片

二是難以區(qū)分外觀相似的部件(如多個相同的桌腿)。

圖片圖片

最后,保持長時間追蹤的準確度也存在一定難度。

第三類任務(wù),是基于視頻的形狀組裝

團隊提出了一個創(chuàng)新的組裝系統(tǒng),包含關(guān)鍵幀檢測、部件識別、姿態(tài)估計和迭代組裝四個步驟。

實驗采用兩種設(shè)置:

  • 使用GPT-4V自動檢測關(guān)鍵幀:結(jié)果不理想,Chamfer Distance達0.55,且1/3的測試視頻未能完成組裝;
  • 使用人工標注的關(guān)鍵幀:由于姿態(tài)估計模型的局限性,最終Chamfer Distance仍達0.33。

圖片圖片

這些實驗結(jié)果揭示了當前AI模型的兩個關(guān)鍵局限:

  • 視頻理解能力不足:當前的視頻模型對時序信息的分析仍然較弱,往往停留在單幀圖像分析的層面;
  • 空間推理受限:在真實場景的復(fù)雜條件下(如光照變化、視角改變、部件遮擋等),現(xiàn)有模型的空間推理能力仍顯不足。

作者簡介

本項目第一作者,是斯坦福大學(xué)計算機科學(xué)碩士生劉雨濃(Yunong Liu)目前在斯坦福SVL實驗室(Vision and Learning Lab),由吳佳俊教授指導(dǎo)。

圖片圖片

她本科畢業(yè)于愛丁堡大學(xué)電子與計算機科學(xué)專業(yè)(榮譽學(xué)位),曾在德克薩斯大學(xué)奧斯汀分校從事研究實習。

斯坦福大學(xué)助理教授、清華姚班校友吳佳俊,是本項目的指導(dǎo)教授。

圖片圖片

另據(jù)論文信息顯示,斯坦福大學(xué)博士后研究員劉蔚宇(Weiyu Liu),與吳佳俊具有同等貢獻。

圖片圖片

此外,Salesforce AI Research研究主任Juan Carlos Niebles,西北大學(xué)計算機科學(xué)系助理教授、斯坦福訪問學(xué)者李曼玲(Manling Li)等人亦參與了此項目。

圖片圖片

圖片圖片


其他作者情況如下:

圖片圖片

項目主頁:https://yunongliu1.github.io/ikea-video-manual/論文地址:https://arxiv.org/abs/2411.11409

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2024-12-03 10:30:00

AI模型

2012-02-09 09:49:48

2020-11-20 12:46:14

機器狗騰訊自行車

2023-07-17 10:21:25

TC39JavaScript

2019-11-15 10:11:03

人工智能埃博拉技術(shù)

2023-09-25 13:12:41

Optimus機器人

2023-04-19 20:30:49

Rust商標政策

2018-03-28 09:28:16

CITE機器人智能系統(tǒng)館

2024-06-27 11:02:44

2012-11-19 10:37:57

思杰OpenStack

2012-11-19 10:50:39

思杰CloudStack開源

2015-11-12 09:27:13

C++最新進展

2023-04-17 19:12:19

2009-09-25 09:27:33

Ubuntu 2010最新進展Lucid Lynx

2022-10-21 17:30:26

機器人

2023-01-09 13:06:21

AI

2024-01-05 19:44:48

谷歌機器人憲法AI

2021-11-12 20:59:21

數(shù)字人民幣數(shù)字貨幣區(qū)塊鏈

2017-02-17 13:38:40

2022-03-02 09:53:51

微軟FlutterEngine PR
點贊
收藏

51CTO技術(shù)棧公眾號