李飛飛團隊給機器人造了一個“模擬廚房”:洗切炒菜一條龍訓練
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權轉載,轉載請聯(lián)系出處。
李飛飛團隊的機器人模擬訓練場2.0版本來了!
這個擁有超過8000個交互式場景的模擬環(huán)境iGibson,再次發(fā)生了進化!
而進化之后的iGibson 2.0,核心就一句話:
機器人們別抓小球兒了,來做家務吧!
像是模擬環(huán)境中增加的溫度、濕度、切片等多種物理狀態(tài),就亟待各位機器人來個洗、切、炒菜一條龍服務:
而且這可是外表顏色會發(fā)生改變的真·煮熟。
做完飯之后,還能擦一下臺子上的污漬,整理一下桌面。
再把沒用完的蔬菜放回冰箱,看著它變成“冰凍”狀態(tài)。
人類還能通過VR進入模擬環(huán)境,給機器人示范下如何做一個標準的家務:
那么現(xiàn)在,就一起來看看這次版本更新的具體內容吧。
新增5種物理狀態(tài)
好的,現(xiàn)在我們的機器人選手進入了模擬環(huán)境,它將要做一頓菜。
而這頓菜,將會用到這次iGibson 2.0擴展的五個新的物理狀態(tài):
濕潤程度
先從洗菜開始。
洗菜的水來自一種流體模擬系統(tǒng)。
比如下方這個水槽上的水龍頭:

水龍頭作為液滴源產(chǎn)生液滴,然后匯聚在其他容器(盤子)里,或被可浸泡的物體(毛巾)吸收。
在iGibson 2.0中,物體吸收的液滴量也就對應了物體的濕潤程度。
切割
洗完了,開始切菜。
但這里就碰到了一個難題:
一般來說,模擬環(huán)境中的物體會被假定為具有固定節(jié)點和三角面的三維結構,要實現(xiàn)“切割”這一動作并不簡單。
而iGibson 2.0則通過更新切片狀態(tài)、保持物體實例的擴展狀態(tài)來完成切割動作。
當拿著切片工具,并作用了超過物體切片力閾值的力時,切片狀態(tài)就會轉為“真”。
這時,模擬器會將會將一個物體替換為兩個:

這兩半“被切開的物體”則會繼承整個對象的擴展物體狀態(tài)(如溫度)。
而這種轉換是不可逆的,在之后的模擬時間中,物體會一直保持這種切片狀態(tài)。
溫度
現(xiàn)在,我們要使用這個微波爐來煎魚了:

要讓溫度自然變化,iGibson 2.0便將WordNet層次結構中的對象類別注釋為熱源。
這是iGibson 2.0中的一個新規(guī)定:
即每個模擬對象都應該是WordNet中現(xiàn)有對象類別的一個實例。
而這種語義結構能夠將特征與同一類別的所有實例聯(lián)系起來。
好,現(xiàn)在我們要通過這個熱源來改變改變其他物體的溫度。
和現(xiàn)實中的微波爐一樣,用手撥動后受熱物體就會開始升溫。
具體溫度會這樣變化:
△∆sim:模擬時間 r:熱源變化率
并且,每個物體在過去達到的最高溫度的歷史值也會被保留。
比如上圖中的魚,在過去曾達到過烹飪或燃燒的溫度。
因此即使在熱源關閉后,它也會呈現(xiàn)出被烤熟或燒焦的外觀。
也就是說在模擬環(huán)境中如果烤糊了,那也就是真的烤糊了!
清潔程度
清潔程度換句話說,就是含有灰塵污漬的程度。
在iGibson 2.0中,對象初始化時可以含有灰塵或污點顆粒,還能采取行為來改變物體的清潔度。
因此,在做完菜后,機器人可以選擇用布擦拭灰塵顆粒:

或者選用濕的工具(擦洗器)來清除來清除污漬:

狀態(tài)切換
iGibson 2.0為一些對象提供“開”和“關”兩種狀態(tài)的切換功能,并同時維護其內部狀態(tài)和外觀變化。
這種狀態(tài)的切換是通過觸摸一個虛擬固定鏈接TogglingLink來完成的。
比如下方這個烤箱,在“開啟”狀態(tài)(右圖)時,其外觀會發(fā)生改變。

于是最后,機器人關掉器械,圓滿完成了這次任務。
而這樣一個穩(wěn)固、逼真、便捷的模擬環(huán)境,自然也就意味著機器人能夠進行更多、更復雜的任務訓練。
基于邏輯謂詞的生成系統(tǒng)
加上前面這些新的物理狀態(tài)后,就足以模擬室內環(huán)境中的一系列基本活動。
不過如果用我們平常生活中的自然語言來描述這些狀態(tài)的話,emmm……
就像是重慶人的“微辣”之于外地人一樣,一定會存在個體理解上的語義差異。
因此,iGibson 2.0以常見的自然語言為基礎,定義了一組邏輯謂詞(Logical Predicates):

這組邏輯謂詞將擴展的對象狀態(tài)映射到對象的邏輯狀態(tài)上,以符號化方式描述對象的狀態(tài)。
基于不同的邏輯謂詞,我們會對有效對象進行不同的采樣。
比如,對于像是Frozen這種基于物體擴展狀態(tài)的謂詞,就對滿足謂詞要求的擴展狀態(tài)值進行采樣。
而如果是OnTopOf這種運動學謂詞,就需要結合射線投射、分析方法等機制,來保證物體處在一個靜止的物理狀態(tài):

那么這時,我們就得到了一個基于邏輯謂詞的生成系統(tǒng)。
在這一系統(tǒng)中,我們只要指定一個邏輯謂詞的列表,就能更加快速、便捷地生成模擬場景。

VR讓機器人學著人類做
現(xiàn)在,機器人訓練的場地已經(jīng)搭建好了。
我們的最終目標,是讓機器人通過訓練來完成越來越復雜的任務。
那么,或許可以讓機器人來看看人類是怎么做的,進而開發(fā)出新的解決方案?
于是,iGibson 2.0引入了VR,讓人類也能進入機器人訓練的場景中:
團隊根據(jù)通過OpenVR與市面上主要的VR頭盔兼容,并有一個額外的跟蹤器來控制主體。
通過iGibson的PBR渲染功能,系統(tǒng)會以最高90幀/秒的速度接收從虛擬化身的頭部視角生成的立體圖像。
而通過人類在VR環(huán)境中完成任務的流程,研究人員也能更加便捷地收集到長期、復雜、雙手動移動操作任務的演示數(shù)據(jù)。
當然,抓小球的經(jīng)典任務也不能忘。
為了提供更自然的抓取體驗,團隊實現(xiàn)了一個輔助抓取(AG)機制:
在用戶通過抓取閾值(50%驅動)后,只要物體在手指和手掌之間,就能在手掌和目標物體之間形成一個額外的約束。
媽媽再也不用擔心機器人抓不住小球了
而最后,李飛飛團隊也表示:
iGibson是一個完全開源的、面向大型場景交互任務的模擬環(huán)境。
我們希望iGibson 2.0能成為社區(qū)有用的工具,減少為不同任務創(chuàng)建模擬環(huán)境的負擔,促進具身AI(embodied AI)研究的解決方案的發(fā)展。
下載地址:
https://github.com/StanfordVL/iGibson
論文地址:
https://arxiv.org/abs/2108.03272
官網(wǎng):
http://svl.stanford.edu/igibson/