自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

上交大校友獲最佳論文,機(jī)器人頂會CoRL 2022獎項公布

人工智能 新聞
在剛剛落幕的CoRL 2022大會中,本科曾就讀于上海交通大學(xué)的Kun Huang獲得了最佳論文獎。

自 2017 年首次舉辦以來,CoRL 已經(jīng)成為了機(jī)器人學(xué)與機(jī)器學(xué)習(xí)交叉領(lǐng)域的全球頂級學(xué)術(shù)會議之一。CoRL 是面向機(jī)器人學(xué)習(xí)研究的 single-track 會議,涵蓋機(jī)器人學(xué)、機(jī)器學(xué)習(xí)和控制等多個主題,包括理論與應(yīng)用。

2022年的CoRL大會于12月14日至18日在新西蘭奧克蘭舉行。

圖片?

本屆大會共收到504篇投稿,最終接收34篇Oral論文、163篇Poster論文,接收率為39%。

圖片?

目前,CoRL 2022 公布了最佳論文獎、最佳系統(tǒng)論文獎、特別創(chuàng)新獎等全部獎項。賓夕法尼亞大學(xué)GRASP實驗室碩士、上海交通大學(xué)校友Kun Huang獲得了大會最佳論文獎。

最佳論文獎

獲得本屆大會最佳論文獎的是來自賓夕法尼亞大學(xué)的一項研究。

圖片?

  • 論文標(biāo)題:Training Robots to Evaluate Robots: Example-Based Interactive Reward Functions for Policy Learning
  • 作者:Kun Huang、Edward Hu、Dinesh Jayaraman
  • 論文鏈接:https://openreview.net/pdf?id=sK2aWU7X9b8

論文摘要:通常來說,物理相互作用有助于揭示不太明顯的信息,例如我們可能會拉一下桌腿來評估它是否穩(wěn)固,或者把一個水瓶倒過來檢查它是否漏水,該研究建議可以通過訓(xùn)練機(jī)器人來自動獲得這種交互行為,以評估機(jī)器人嘗試執(zhí)行技能的結(jié)果。這些評估反過來作為IRF(interactive reward functions),用于訓(xùn)練強(qiáng)化學(xué)習(xí)策略以執(zhí)行目標(biāo)技能,例如擰緊桌腿。此外,即使完全訓(xùn)練完成之后,IRF也可以作為改進(jìn)在線任務(wù)執(zhí)行的驗證機(jī)制。對于任何給定的任務(wù), IRF訓(xùn)練非常方便,并且不需要進(jìn)一步的規(guī)范。

評估結(jié)果表明,IRF 可以實現(xiàn)顯著的性能改進(jìn),甚至可以通過訪問演示或精心設(shè)計的獎勵來超越基線。比如下圖中,機(jī)器人必須先關(guān)門,然后旋轉(zhuǎn)對稱的門把手才能完全鎖住門。

圖片門鎖(door locking)評估示例演示

下面實驗的目的是將 3 個視覺上相同的塊堆疊成一個穩(wěn)定的塔,其中的一個小方塊明顯比其他兩塊重,所以最佳策略是將它放在底部。

圖片堆疊評估示例演示

為了檢查算法的魯棒性和通用性,該研究使用具有 9 個關(guān)節(jié)的 D'Claw 在真實機(jī)器人擰緊實驗中對其進(jìn)行測試。此任務(wù)的目的是將4-prong閥門順時針旋轉(zhuǎn)約 180° 進(jìn)入擰緊狀態(tài)(閥門底座上的白線)。

圖片

作者介紹?

本次獲得CoRL 2022最佳論文獎的作者共有三位,分別是Kun Huang、Edward Hu、Dinesh Jayaraman 。

Dinesh Jayaraman為賓夕法尼亞大學(xué)GRASP實驗室的助理教授,他領(lǐng)導(dǎo)著感知、行動和學(xué)習(xí)(PAL)研究小組,致力于計算機(jī)視覺、機(jī)器學(xué)習(xí)和機(jī)器人技術(shù)的交叉問題研究。

Kun Huang為賓夕法尼亞大學(xué)GRASP實驗室碩士,在Dinesh Jayaraman教授的指導(dǎo)下研究強(qiáng)化學(xué)習(xí)。他在密歇根大學(xué)獲得了計算機(jī)科學(xué)學(xué)士學(xué)位,在那里他與 Dmitry Berenson 教授一起研究機(jī)器人感知。Kun Huang本科畢業(yè)于上海交通大學(xué),研究興趣包括機(jī)器人與現(xiàn)實世界的應(yīng)用。Kun Huang 在碩士期間曾在 Waymo 實習(xí),畢業(yè)后將加入 Cruise 擔(dān)任機(jī)器學(xué)習(xí)工程師。

領(lǐng)英主頁:https://www.linkedin.com/in/kun-huang-620034171/

Edward S. Hu 為賓夕法尼亞大學(xué)GRASP實驗室的博士生,師從Dinesh Jayaraman教授。他的主要研究興趣包括基于模型的強(qiáng)化學(xué)習(xí)等。Edward在南加州大學(xué)獲得了計算機(jī)科學(xué)碩士和學(xué)士學(xué)位,在那里他與Joseph J. Lim教授一起研究機(jī)器人的強(qiáng)化和模仿學(xué)習(xí)。

最佳論文入圍名單

此次會議共有3篇論文入圍最佳論文獎項,除了最終得獎的論文以外,其他2篇分別是:

圖片?

  • 論文標(biāo)題:Learning Agile Skills via Adversarial Imitation of Rough Partial Demonstrations
  • 作者:Chenhao Li、Marin Vlastelica、Sebastian Blaes、Jonas Frey、Felix Grimminger、Georg Martius
  • 論文鏈接:https://arxiv.org/pdf/2206.11693.pdf

圖片?

  • 論文標(biāo)題:Supercharging Imitation with Regularized Optimal Transport
  • 作者:Siddhant Haldar 、 Vaibhav Mathur、Denis Yarats、Lerrel Pinto
  • 論文鏈接:https://arxiv.org/pdf/2206.15469.pdf

最佳系統(tǒng)論文獎

獲得本屆大會最佳系統(tǒng)論文獎的是來自CMU、UC伯克利的一項研究。

圖片?

  • 論文標(biāo)題:Legged Locomotion in Challenging Terrains using Egocentric Vision
  • 作者:Ananye Agarwal,Ashish Kumar,Jitendra Malik, Deepak Pathak
  • 論文鏈接:https://arxiv.org/pdf/2211.07638.pdf

論文摘要:動物能夠利用視覺進(jìn)行精確而敏捷的運動,而復(fù)制這種能力一直是機(jī)器人技術(shù)的一個長期目標(biāo)。傳統(tǒng)的方法是將這個問題分解為海拔測繪和落腳點規(guī)劃階段(foothold planning phase)。然而,海拔測繪很容易受到故障和大面積噪聲的影響,需要專門的硬件而且在生物學(xué)上是不可行的。

在本文中,研究者提出了第一個能夠穿越樓梯、路邊、墊腳石和空隙的端到端運動系統(tǒng),并在一個中等大小、使用單個正面的深度攝像頭的四足機(jī)器人上展示了這一結(jié)果。由于機(jī)器人體積小,需要發(fā)現(xiàn)其他地方?jīng)]有的專門的步態(tài)模式。攝像頭需要掌握記住過去的信息的策略,以估計身后腳下的地形。

研究者在模擬環(huán)境中訓(xùn)練了機(jī)器人的策略。訓(xùn)練分為兩個階段:首先使用強(qiáng)化學(xué)習(xí)訓(xùn)練一個具有低計算成本的深度圖像變體的策略,然后將其提煉為使用監(jiān)督學(xué)習(xí)的深度的最終策略。

圖片?

最終的策略可遷移到現(xiàn)實世界,并能夠在機(jī)器人有限的計算能力上實時運行。它可以穿越大量的地形,同時對諸如濕滑表面和巖石地形等干擾具有魯棒性。

墊腳石和空隙

機(jī)器人能夠跨過各種配置的吧臺凳,并調(diào)整步長以跨過大間隙。由于后腳附近沒有攝像頭,機(jī)器人必須記住吧臺凳的位置并在相應(yīng)的位置放置后腳。

圖片

樓梯和路邊

該機(jī)器人能夠爬上24厘米高、30厘米寬的樓梯。策略適用于各種照明條件下的不同樓梯和路邊。在分布不均勻的樓梯,機(jī)器人最初會被卡住,但最終能夠使用爬升行為跨過這些障礙。

圖片

非結(jié)構(gòu)化地形

機(jī)器人可以穿越不屬于其訓(xùn)練類別之一的非結(jié)構(gòu)化地形,顯示了系統(tǒng)的泛化能力。

圖片

黑暗中的移動

深度相機(jī)使用紅外光投射圖案,即使在幾乎沒有環(huán)境光的情況下也能準(zhǔn)確估計深度。

魯棒性

策略對大力量(從高處投擲 5 公斤重物)和濕滑表面(水倒在塑料布上)具有魯棒性。

圖片

作者介紹?

這項研究共有四位作者。

Jitendra Malik現(xiàn)為UC伯克利電氣工程和計算機(jī)科學(xué)系A(chǔ)rthur J. Chick教授,他的研究領(lǐng)域包括計算機(jī)視覺、人類視覺的計算建模、計算機(jī)圖形學(xué)和生物圖像分析等。

本次獲獎研究的作者之一Ashish Kumar是他的博士生。

Deepak Pathak現(xiàn)為卡內(nèi)基梅隆大學(xué)助理教授,他在加州大學(xué)伯克利分校獲得博士學(xué)位,研究的主題包括機(jī)器學(xué)習(xí)、機(jī)器人和計算機(jī)視覺。

本次獲獎研究的作者之一Ananye Agarwal是他的博士生。

此外,Deepak Pathak還有一項研究在本次大會最佳系統(tǒng)論文獎的入圍名單之內(nèi)。

圖片

  • 論文標(biāo)題:Deep Whole-Body Control: Learning a Unified Policy for Manipulation and Locomotion
  • 作者:Zipeng Fu, Xuxin Cheng, Deepak Pathak
  • 論文鏈接:https://arxiv.org/abs/2210.10044

特別創(chuàng)新獎

這次大會還評選出了特別創(chuàng)新獎,這項研究由谷歌的多位研究者共同完成。

圖片

  • 論文標(biāo)題:Do As I Can, Not As I Say: Grounding Language in Robotic Affordances
  • 作者:Brian Ichter 、 Anthony Brohan 、Michael Ahn 等
  • 論文鏈接:https://arxiv.org/pdf/2204.01691.pdf

論文摘要:大型語言模型可以編碼關(guān)于世界的大量語義知識,這樣的知識對機(jī)器人非常有用。然而,語言模型存在這樣一個缺點,即對真實世界缺乏經(jīng)驗,這使得其在給定任務(wù)上很難利用語義進(jìn)行決策。

來自谷歌的研究者建議通過預(yù)訓(xùn)練技能來提供大型語言模型在現(xiàn)實世界的基礎(chǔ),這些技能用于約束模型,以提出既可行又適合上下文的自然語言操作。機(jī)器人可以充當(dāng)語言模型的「手和眼睛」,而語言模型提供關(guān)于任務(wù)的高級語義知識。該研究展示了低級技能如何與大型語言模型相結(jié)合,以便語言模型提供有關(guān)執(zhí)行復(fù)雜和時間擴(kuò)展指令的過程的高級知識,而與這些技能相關(guān)的值函數(shù)提供了將這些知識連接到特定物理環(huán)境所需的基礎(chǔ)。

研究者將大型語言模型(LLM)與機(jī)器人的物理任務(wù)組合到一起時用到了這樣一個原則:除了讓 LLM 簡單地解釋一條指令之外,還可以用它來評估單個動作對完成整個高級指令有幫助的概率。簡單來說,每個動作可以有一個語言描述,我們可以通過 prompt 語言模型讓它給這些動作打分。此外,如果每個動作都有一個相應(yīng)的 affordance 函數(shù),可以量化它從當(dāng)前狀態(tài)(比如學(xué)到的價值函數(shù))獲得成功的可能性。兩個概率值的乘積就是機(jī)器人能成功地完成一個對于指令有幫助的動作的概率。根據(jù)這個概率將一系列動作排序,選取概率最高的一個。

圖片

下圖示例展示的是機(jī)器人幫助拿蘋果:

圖片

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2021-07-19 15:02:48

機(jī)器人人工智能算法

2023-11-10 12:53:35

論文AI

2022-12-25 13:36:47

論文

2022-12-13 15:14:45

論文

2023-07-03 10:34:13

2023-08-31 13:51:37

計算系統(tǒng)

2022-10-26 13:27:12

論文

2021-12-15 09:39:13

谷歌AI算法

2021-06-03 12:16:18

騰訊云機(jī)器人Robotics X

2025-01-23 12:30:00

2024-08-28 14:30:00

論文AI

2023-12-06 12:42:25

2021-09-30 18:03:37

AI

2021-12-26 23:04:34

機(jī)器人人工智能技術(shù)

2021-04-19 20:30:06

機(jī)器人AI人工智能

2024-06-20 10:39:49

2021-12-20 16:26:53

機(jī)器人人工智能技術(shù)

2025-03-05 11:26:33

機(jī)器人AI模型

2023-08-09 17:10:01

論文獲獎
點贊
收藏

51CTO技術(shù)棧公眾號