自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

北大具身智能成果入選CVPR'24:只需一張圖一個(gè)指令,就能讓大模型玩轉(zhuǎn)機(jī)械臂

人工智能 新聞
大多的具身操縱工作主要依賴大語(yǔ)言模型的推理能力來(lái)進(jìn)行任務(wù)編排和規(guī)劃。然而,鮮有研究探索大語(yǔ)言模型在實(shí)現(xiàn)低層原子任務(wù)(low-level action)方面的潛力。

只靠一張物體圖片,大語(yǔ)言模型就能控制機(jī)械臂完成各種日常物體操作嗎?

北大最新具身大模型研究成果ManipLLM將這一愿景變成了現(xiàn)實(shí):

在提示詞的引導(dǎo)下,大語(yǔ)言模型在物體圖像上直接預(yù)測(cè)機(jī)械臂的操作點(diǎn)和方向。

進(jìn)而,得以操控機(jī)械臂直接玩轉(zhuǎn)各項(xiàng)具體的任務(wù):

例如打開(kāi)抽屜、冰箱,揭鍋蓋、掀馬桶蓋……

圖片

作者表示:

該方法利用LLM的推理和面對(duì)開(kāi)放世界的泛化能力,成功提升了模型在物體操縱方面的泛化能力。

在仿真和真實(shí)世界中,ManipLLM在各種類別的物體上均取得了令人滿意的效果,證明了其在多樣化類別物體中的可靠性和適用性。

與谷歌RT2等輸出機(jī)器人本體動(dòng)作的策略相比(如下圖所示),該方法側(cè)重于以物體為中心(Object-centric)的操縱,關(guān)注物體本身,從而輸出機(jī)器人對(duì)物體操縱的位姿。

圖片

以物體為中心的操縱策略,設(shè)計(jì)針對(duì)物體本身特性的表征,與任務(wù)、動(dòng)作、機(jī)器人型號(hào)無(wú)關(guān)。

這樣就可以將物體和任務(wù)及環(huán)境解耦開(kāi)來(lái),使得方法本身可以適應(yīng)于各類任務(wù)、各類機(jī)器人,從而實(shí)現(xiàn)面對(duì)復(fù)雜世界的泛化。

目前,該工作已被CVPR 2024會(huì)議接收,團(tuán)隊(duì)由北大助理教授、博導(dǎo)董豪領(lǐng)銜。

圖片

大模型如何直接操控機(jī)械臂?

大多的具身操縱工作主要依賴大語(yǔ)言模型的推理能力來(lái)進(jìn)行任務(wù)編排和規(guī)劃。

然而,鮮有研究探索大語(yǔ)言模型在實(shí)現(xiàn)低層原子任務(wù)(low-level action)方面的潛力。

因此,該方法致力于探索和激發(fā)大語(yǔ)言模型在預(yù)測(cè)低層原子任務(wù)的能力,從而實(shí)現(xiàn)對(duì)更多類別物體的以物體為中心(object-centric)的通用操縱。

具體而言,通過(guò)以下三個(gè)學(xué)習(xí)階段,ManipLLM實(shí)現(xiàn)了具有泛化能力的以物體為中心的操縱:

1)類別級(jí)別(category-level):識(shí)別物體類別;

2)區(qū)域級(jí)別(region-level):預(yù)測(cè)物體的可操縱性分?jǐn)?shù)(affordance score),反映哪些部位更可能被操縱;

3)位姿級(jí)別:預(yù)測(cè)操作物體的位姿。在訓(xùn)練時(shí),模型只更新適配器模塊(adapter),這樣既可以保有LLMs本身的能力,同時(shí)賦予其具身操縱的能力。

圖片

在獲得初始接觸姿態(tài)的輸出后,該方法利用一種無(wú)需學(xué)習(xí)的閉環(huán)主動(dòng)式阻抗適應(yīng)策略,來(lái)完成完整的操縱。

它的作用是不斷地微調(diào)末端執(zhí)行器的旋轉(zhuǎn)方向,這樣就能夠靈活地適應(yīng)物體的形狀和軸向,從而逐步地完成對(duì)物體的操控任務(wù)。

具體來(lái)說(shuō),我們會(huì)在當(dāng)前方向的周圍加入一些微小的變化,生成多個(gè)可能的移動(dòng)方向。

然后我們會(huì)試著每個(gè)方向輕輕地移動(dòng)一下,看看哪個(gè)方向可以讓物體移動(dòng)最遠(yuǎn),然后我們選擇這個(gè)方向作為下一步的移動(dòng)方向。

在推理階段,該模型只需輸入兩個(gè)信息:

1)文本提示:“請(qǐng)指出操縱物體的接觸點(diǎn)和夾爪方向?!?span>(Specify the contact point and gripper direction of manipulating the object);

2)一張RGB圖片。然后,模型就能夠輸出物體操縱的2D坐標(biāo)和旋轉(zhuǎn)信息。其中,2D坐標(biāo)會(huì)通過(guò)深度圖映射到3D空間。

圖片

更多細(xì)節(jié)可查看論文原文:https://arxiv.org/pdf/2312.16217.pdf
和項(xiàng)目主頁(yè):https://sites.google.com/view/manipllm

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2023-11-06 11:29:02

機(jī)器人視覺(jué)

2025-04-25 02:30:00

機(jī)械臂大模型多模態(tài)

2023-07-11 10:07:10

機(jī)器人智能

2024-06-04 09:25:51

2023-10-04 11:54:34

2018-02-02 14:29:25

PHP漏洞服務(wù)器

2020-04-28 10:32:37

AI 視頻開(kāi)源

2023-07-18 09:47:11

谷歌模型

2021-03-29 15:07:19

AI 數(shù)據(jù)人工智能

2024-09-12 12:46:36

2024-09-05 13:11:49

2023-12-22 09:29:07

模型3D

2021-04-01 10:00:34

AI 數(shù)據(jù)人工智能

2021-12-31 09:34:22

PyTorchtransformer模型

2024-09-30 09:35:55

圖像生成AI

2018-06-05 11:10:12

2021-11-19 10:13:01

模型人工智能計(jì)算

2017-03-06 10:01:52

2018-05-18 18:09:44

人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)