自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

讓大模型操縱無人機,北航團隊提出具身智能新架構(gòu)

人工智能 新聞
北京航空航天大學(xué)智能無人機團隊周堯明教授團隊等研究人員,提出了一種基于多模態(tài)大模型的具身智能體架構(gòu)。

進入多模態(tài)時代,大模型也會操縱無人機了!

只要視覺模塊捕捉到啟動條件,大模型這個“大腦”就會生成動作指令,接著無人機便能迅速準(zhǔn)確地執(zhí)行。

圖片

北京航空航天大學(xué)智能無人機團隊周堯明教授團隊等研究人員,提出了一種基于多模態(tài)大模型的具身智能體架構(gòu)。

目前,這種架構(gòu)已被應(yīng)用于無人機的操控。

圖片

那么這種新的智能體表現(xiàn)如何,又有哪些技術(shù)細節(jié)呢?

“智能體即大腦”

研究團隊利用大模型對多模態(tài)數(shù)據(jù)的理解能力,將真實物理世界的照片、聲音、傳感器數(shù)據(jù)等多源信息融合成能體的感知,將對于真實世界的執(zhí)行器的操作作為智能體的行為。

同時,團隊提出了一套“Agent as Cerebrum,Controller as Cerebellum”(智能體即大腦,控制器即小腦)的控制架構(gòu):

智能體作為大腦這一決策生成器,專注于生成高層級的行為;

控制器作為小腦這一運動控制器,專注于將高層級的行為(如期望目標(biāo)點)轉(zhuǎn)換成低層級的系統(tǒng)命令(如旋翼轉(zhuǎn)速)。

具體來說,研究團隊認為這一成果主要有三項貢獻。

應(yīng)用于實際的新型系統(tǒng)架構(gòu)

研究團隊提出了一種應(yīng)用于實際機器人的新的系統(tǒng)架構(gòu),將基于多模態(tài)大模型的智能體具象化為大腦。

而機器人運動規(guī)劃器與控制器則被具象化為小腦,機器人的感知系統(tǒng)類比為人的眼、耳等信息收集器,機器人的執(zhí)行機構(gòu)類比為人的手等執(zhí)行器。

圖片

△圖1 硬件系統(tǒng)架構(gòu)

這些節(jié)點通過ROS相連,通過ROS中消息的訂閱與發(fā)布或服務(wù)的請求與響應(yīng)實現(xiàn)通信,區(qū)別于傳統(tǒng)的端到端的機器人大模型控制。

這一架構(gòu)使得Agent可以專注于高層級命令的產(chǎn)生,對于高層級任務(wù)具備更強的智能性,對于實際的執(zhí)行具備更好的魯棒性和可靠性。

圖片

△圖2 軟件系統(tǒng)架構(gòu)

新型智能體

在這一架構(gòu)下,作者構(gòu)建了作為大腦的一種智能體AeroAgent。

該智能體主要包括三個部分:

  • 一個自動計劃生成模塊,具有多模態(tài)感知監(jiān)測能力,同時擅長進行待機模式下的應(yīng)急突發(fā)事件處理。
  • 一個多模態(tài)數(shù)據(jù)記憶模塊,可以用于多模態(tài)記憶檢索和反思,為智能體賦予少樣本學(xué)習(xí)能力。
  • 一個具身智能動作模塊,可以建立具身智能體與ROS上其他模塊進行穩(wěn)定控制的橋梁,這一模塊提供了對于ROS上其他節(jié)點以操作為橋梁進行訪問的能力。

同時,一個動作的完成,可能需要多次操作的交互以從傳感器獲取動作的執(zhí)行所必需的參數(shù),確保智能體可以根據(jù)綜合態(tài)勢感知及所具備的執(zhí)行器來進行穩(wěn)定的embodied action的輸出。

圖片

△圖3 AeroAgent模塊架構(gòu)

連接大模型和ROS的橋梁

為了給具身智能體和ROS機器人系統(tǒng)建立橋梁,讓Agent產(chǎn)生的操作能夠正確地、穩(wěn)定地發(fā)送給ROS并被其他節(jié)點成功執(zhí)行,同時讓其他節(jié)點所提供的信息讓LMM能夠讀取與理解,團隊設(shè)計了了ROSchain——

一個連接LLMs/LMMs與ROS的橋梁。

ROSchain通過一套模塊和應(yīng)用程序接口(APIs)簡化了大型模型與機器人傳感裝置、執(zhí)行單元和控制機制的集成,為智能體接入ROS系統(tǒng)提供了一個穩(wěn)定的中間件。

為什么選擇無人機

至于為什么選擇無人機進行該系統(tǒng)架構(gòu)的測試與模擬,研究團隊也做了解釋,這主要有三個原因。

首先,如今LMMs中所蘊含的web-scale的世界知識,多為第三人稱視角,人型機器人等領(lǐng)域的具身智能是類似于以人類為主體出發(fā)的第一人稱視角。

而無人機掛載的相機(尤其是下視相機)更加類似于第三人稱視角(上帝視角)的具身智能;

另一方面,現(xiàn)階段的LMMs無論是模型部署還是API服務(wù),通常受限于計算資源導(dǎo)致響應(yīng)有一定的延遲。

這對于自動駕駛等領(lǐng)域是一個應(yīng)用的障礙,而無人機的任務(wù)規(guī)劃由于其可以懸停,具備應(yīng)對延遲的能力。

這兩點都導(dǎo)致目前技術(shù)發(fā)展水平下無人機適合作為先驅(qū)進行相關(guān)理論與應(yīng)用的驗證。

第二,目前工業(yè)無人機領(lǐng)域,如山火救援、農(nóng)林植保、無人放牧、電力巡檢等,多由飛手與專家配合實際操作,智能化任務(wù)執(zhí)行具有工業(yè)需求。

第三,從未來發(fā)展看,多智能體協(xié)同合作在物流、建筑、工廠等領(lǐng)域具備較為明顯的需求。

而在這種領(lǐng)域中,無人機作為“上帝視角”的具身智能體,適合作為中央節(jié)點的領(lǐng)導(dǎo)者進行任務(wù)的分配,其他機器人可看作無人機的執(zhí)行器的一環(huán),所以這一研究也具有未來的發(fā)展前景。

團隊在airgen的仿真器上進行了模擬實驗,同時選用了DRL等方式作為對照組。結(jié)果如下:

圖片

在野外火災(zāi)搜救的場景中,AeroAgent獲得了100分(標(biāo)準(zhǔn)化分?jǐn)?shù),下同)的成績,平均每步為2.04分。

而單純調(diào)用LLM或基于DRL的智能體都只獲得了29.4分,平均每步0.2,不足AeroAgent的十分之一。

圖片

△圖4-1山火救援場景

在著陸任務(wù)中,AeroAgent也以97.4的總分和48.7的每步平均分超過了其他模型。

圖片

△圖4-2 海上機坪著陸場景

而在風(fēng)機巡檢的測試中,AeroAgent直接成為了唯一能完成該任務(wù)的模型。

圖片

△圖4-3 風(fēng)力電機巡檢場景

導(dǎo)航任務(wù)上,AeroAgent 4.44的每步均分,分別是DRL和純LLM的40倍和近10倍。

圖片

△圖4-4 Airgen仿真實驗

團隊還在真實場景中進行了無人機系統(tǒng)的測試,以一個簡單的受困群眾引導(dǎo)實驗為例進行了案例研究。

圖片

△圖5 受困群眾引導(dǎo)案例實驗

團隊目前正以這一工作為基礎(chǔ),在某高原牦牛牧場進行無人放牧智能無人機的實驗,探索其實際應(yīng)用的可能性,并將以“予智能以具身”為目標(biāo),進行其他機器人/多機器人合作的智能體落地應(yīng)用探索。

論文地址:https://arxiv.org/abs/2311.15033

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2021-10-17 21:43:55

人工智能無人機網(wǎng)絡(luò)安全

2021-04-19 16:39:59

無人機人工智能AI

2024-12-06 15:12:07

2017-06-30 15:45:33

消費

2023-08-31 13:37:00

訓(xùn)練模型

2020-07-27 19:23:03

安全漏洞數(shù)據(jù)

2020-08-10 08:04:06

無人機5G技術(shù)

2019-11-19 17:03:05

無人機人工智能AI

2021-09-07 18:32:25

無人機農(nóng)業(yè)人工智能

2020-11-25 10:01:07

HarmonyOS

2015-10-26 00:08:02

2025-01-22 15:21:00

2021-01-11 13:27:55

無人機通信技術(shù)

2023-03-24 10:26:54

無人機人工智能智慧城市

2023-08-08 14:36:11

模型AI

2023-05-04 11:35:15

無人機

2021-12-23 10:38:00

人工智能AI無人機

2015-05-25 16:35:22

CES

2021-01-03 20:05:02

美國無人機牌照
點贊
收藏

51CTO技術(shù)棧公眾號