谷歌發(fā)布視覺語言動作模型 RT-2,可以讓機器人學會扔垃圾
7 月 28 日消息,谷歌今日推出了一種新的人工智能(AI)模型 Robotics Transformer2(RT-2),可以幫助訓練機器人理解扔垃圾等任務。
▲ 圖源 谷歌 DeepMind 官網(wǎng)
谷歌表示,RT-2 是一種視覺語言動作模型,可將互聯(lián)網(wǎng)上采集的信息和圖像轉(zhuǎn)化為機器人可理解的動作,從而幫助提升機器人的學習能力。
雖然像撿垃圾這樣的任務對于人類來說聽起來很簡單,但機器人需要了解一系列知識后才能學習。例如,機器人必須首先能夠識別哪些物品構(gòu)成垃圾,然后要知道如何將其撿起來并扔掉。
RT-2 允許機器人使用來自網(wǎng)絡(luò)的知識來幫助它理解如何完成任務,而不是為機器人編程來完成這些特定的任務。即使機器人沒有明確地接受過確切步驟的訓練,也能通過 RT-2 學會完成新的任務。
據(jù)《紐約時報》報道,谷歌近期沒有計劃發(fā)布或銷售采用這項新技術(shù)的機器人,但最終這項技術(shù)或許可以用于倉儲物流或家庭助理機器人。
IT之家附上 RT-2 模型詳細說明:點此前往