3D版Sora來了?UMass、MIT等提出3D世界模型,具身智能機器人實現(xiàn)新里程碑
在最近的研究中,視覺-語言-動作(VLA,vision-language-action)模型的輸入基本都是2D數(shù)據(jù),沒有集成更通用的3D物理世界。
此外,現(xiàn)有的模型通過學(xué)習(xí)「感知到動作的直接映射」來進行動作預(yù)測,忽略了世界的動態(tài)性,以及動作和動態(tài)之間的關(guān)系。
相比之下,人類在思考時會引入世界模型,可以描繪除對未來情景的想象,從而對下一步的行動進行規(guī)劃。
為此,來自馬薩諸塞州大學(xué)阿默斯特分校、MIT等機構(gòu)的研究人員提出了3D-VLA模型,通過引入一類全新的具身基礎(chǔ)模型(embodied foundation models),可以根據(jù)生成的世界模型無縫連接3D感知、推理和行動。
項目主頁:https://vis-www.cs.umass.edu/3dvla/
論文地址:https://arxiv.org/abs/2403.09631
具體而言,3D-VLA構(gòu)建在基于3D的大型語言模型(LLM)之上,并引入一組交互token來參與具身環(huán)境中。
為了將生成能力注入模型,淦創(chuàng)團隊訓(xùn)練了一系列具身擴散模型,并將其對齊到LLM中以預(yù)測目標圖像和點云。
為了對3D-VLA模型進行訓(xùn)練,通過從現(xiàn)有的機器人數(shù)據(jù)集中提取大量的3D相關(guān)信息來構(gòu)建出一個大規(guī)模的3D具身指令數(shù)據(jù)集。
實驗結(jié)果表明,3D-VLA顯著提高了在具身環(huán)境中推理、多模態(tài)生成和規(guī)劃的能力,展示出其在現(xiàn)實世界中的應(yīng)用潛力。
三維具身指令調(diào)整數(shù)據(jù)集(3D Embodied Instruction Tuning Dataset)
得益于互聯(lián)網(wǎng)上數(shù)十億規(guī)模的數(shù)據(jù)集,VLM在各種任務(wù)中表現(xiàn)出了非凡的性能,百萬級的視頻動作數(shù)據(jù)集也為機器人控制的具身VLM奠定了基礎(chǔ)。
但當(dāng)前的數(shù)據(jù)集大多不能在機器人操作中提供深度或3D標注和精確控制,需要包含3D空間推理和交互:如果沒有3D信息,機器人很難理解和執(zhí)行需要3D空間推理的命令,比如「把最遠的杯子放在中間的抽屜里」。
為了彌補這一差距,研究人員構(gòu)建了一個大規(guī)模的3D指令調(diào)優(yōu)數(shù)據(jù)集,該數(shù)據(jù)集提供了足夠的「3D相關(guān)信息」以及「相應(yīng)的文本指令」以訓(xùn)練模型。
研究人員設(shè)計了一個pipeline從現(xiàn)有的具身數(shù)據(jù)集中提取3D語言動作對,獲得點云、深度圖、3D邊界框、機器人的7D動作和文本描述的標注。
3D-VLA基礎(chǔ)模型
3D-VLA是一個用于在具身環(huán)境(embodied environment)中進行三維推理、目標生成和決策的世界模型。
首先在3D-LLM之上構(gòu)建主干網(wǎng)絡(luò),并通過添加一系列交互token來進一步增強模型與3D世界交互的能力;再通過預(yù)訓(xùn)練擴散模型并使用投影來對齊LLM和擴散模型,將目標生成能力注入3D-VLA
骨干網(wǎng)絡(luò)
在第一階段,研究人員按照3D-LLM的方法開發(fā)3D-VLA基礎(chǔ)模型:由于收集到的數(shù)據(jù)集沒有達到從頭開始訓(xùn)練多模態(tài)LLM所需的十億級規(guī)模,因此需要利用多視圖特征生成3D場景特征,使得視覺特征能夠無縫集成到預(yù)訓(xùn)練VLM中,不需要自適應(yīng)。
同時,3D-LLM的訓(xùn)練數(shù)據(jù)集主要包括對象(objects)和室內(nèi)場景,與具體設(shè)置不直接一致,所以研究人員選擇使用BLIP2-PlanT5XL作為預(yù)訓(xùn)練模型。
在訓(xùn)練過程中,解凍token的輸入和輸出嵌入,以及Q-Former的權(quán)重。
交互tokens
為了增強模型對3D場景的理解與環(huán)境中的交互,研究人員引入了一組全新的交互tokens
首先,輸入中加入了object tokens,包含解析句子中的對象名詞(如<obj> a chocolate bar </obj> [loc tokens] on the table),這樣模型就能更好地捕捉到被操作或提及的對象。
其次,為了更好地用語言表達空間信息,研究人員設(shè)計了一組位置token <loc0-255>,用 AABB 形式的六個標記來表示三維邊界框。
第三,為了更好地進行動態(tài)編碼,框架中引入了<scene></scene>來包含靜態(tài)場景的嵌入:通過對場景token進行組合,3D-VLA 可以理解動態(tài)場景,并管理交錯三維場景和文本的輸入。
通過擴展代表機器人動作的專用標記集,進一步增強了該架構(gòu)。機器人的動作有 7 個自由度,用 <aloc0-255>、<arot0-255> 和 <gripper0/1> 等離散token來表示手臂的預(yù)定絕對位置、旋轉(zhuǎn)和抓手張開度,每個action由 <ACT SEP> token進行分隔。
注入目標生成能力
人類能夠?qū)鼍暗淖罱K狀態(tài)進行預(yù)先可視化(pre-visualize),以提升動作預(yù)測或決策的準確性,也是構(gòu)建世界模型的關(guān)鍵方面;在初步實驗中,研究人員還發(fā)現(xiàn)提供真實的最終狀態(tài)可以增強模型的推理和規(guī)劃能力。
但訓(xùn)練MLLM來生成圖像、深度和點云并不簡單:
首先,視頻擴散模型并不是為具身場景量身定制的,比如Runway在生成「打開抽屜」的未來幀時,場景中會發(fā)生視圖變化、對象變形、怪異的紋理替換以及布局失真等問題。
并且,如何將各種模態(tài)的擴散模型整合到一個單一的基礎(chǔ)模型中仍然是一個難題。
所以研究人員提出的新框架,首先根據(jù)圖像、深度和點云等不同形式對具體的擴散模型進行預(yù)訓(xùn)練,然后在對齊階段將擴散模型的解碼器對齊到3D-VLA的嵌入空間。
實驗結(jié)果
3D-VLA是一個多功能的、基于3D的生成式世界模型,可以在3D世界中執(zhí)行推理和定位、想象多模態(tài)目標內(nèi)容,并為機器人操作生成動作,研究人員主要從三個方面對3D-VLA進行了評估:3D推理和定位、多模態(tài)目標生成和具身行動規(guī)劃。
3D推理和定位
3D-VLA在語言推理任務(wù)上優(yōu)于所有2D VLM方法,研究人員將其歸因于3D信息的杠桿作用,3D信息為推理提供了更準確的空間信息。
此外,由于數(shù)據(jù)集中包含一組3D定位標注,3D-VLA學(xué)習(xí)定位相關(guān)對象,有助于模型更專注于關(guān)鍵對象進行推理。
研究人員發(fā)現(xiàn)3D-LLM在這些機器人推理任務(wù)中表現(xiàn)不佳,證明了在機器人相關(guān)的3D數(shù)據(jù)集上收集和訓(xùn)練的必要性。
并且3D-VLA在定位性能方面表現(xiàn)出明顯優(yōu)于2D基線方法,這一發(fā)現(xiàn)也為標注過程的有效性提供了令人信服的證據(jù),有助于模型獲得強大的3D定位能力。
多模態(tài)目標生成
與現(xiàn)有的零樣本遷移到機器人領(lǐng)域的生成方法相比,3D-VLA在大多數(shù)指標方面實現(xiàn)了更好的性能,證實了使用「專門為機器人應(yīng)用設(shè)計的數(shù)據(jù)集」來訓(xùn)練世界模型的重要性。
即使在與Instruct-P2P*的直接比較中,3D-VLA也始終性能更優(yōu),結(jié)果表明,將大型語言模型集成到3D-VLA中可以更全面、更深刻地理解機器人操作指令,從而提高目標圖像生成性能。
此外,當(dāng)從輸入提示符中排除預(yù)測的邊界框時,可以觀察到性能略有下降,證實了使用中間預(yù)測邊界框的有效性,可以幫助模型理解整個場景,允許模型將更多的注意力分配到給定指令中提到的特定對象,最終增強其想象最終目標圖像的能力。
點云生成的結(jié)果對比中,具有中間預(yù)測邊界框的3D-VLA性能最好,證實了在理解指令和場景的背景下結(jié)合大型語言模型和精確對象定位的重要性。
具身行動規(guī)劃
3D-VLA在RLBench動作預(yù)測中的大多數(shù)任務(wù)中超過了基線模型的性能,顯示了其具有規(guī)劃能力。
值得注意的是,基線模型需要用到歷史觀察、對象狀態(tài)和當(dāng)前狀態(tài)信息,而3D-VLA模型只通過開環(huán)控制執(zhí)行。
此外,模型的泛化能力在撿杯(pick-up-cup)任務(wù)中得到了證明,3D-VLA在CALVIN中也取得了較好的結(jié)果,研究人員將這種優(yōu)勢歸因于定位感興趣的對象和想象目標狀態(tài)的能力,為推斷動作提供了豐富的信息。