自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

與人類貼身熱舞!人形機器人進階到街頭耍寶,6華人組團出品

人工智能 新聞
他們提出一種特別的全身控制策略(ExBody),能對人形機器人進行全身控制。策略主要訓練人形機器人上半身,下半身則專注于負責維持穩(wěn)定。

注意看,小帥一個轉身,衛(wèi)衣帽子里面居然 空 無 一 頭

圖片

好啦,這不是驚悚恐怖片,而是來自UCSD(加州大學圣地亞哥分校)全華人團隊的最新研究成果。

他們提出一種特別的全身控制策略(ExBody),能對人形機器人進行全身控制。策略主要訓練人形機器人上半身,下半身則專注于負責維持穩(wěn)定。

這樣訓練出來的人形機器人,能實現穩(wěn)健的運動和動態(tài)運動跟蹤。

簡而言之,會的活多,表現力還強

比如和人類邊貼貼邊跳舞,增進增進人形機器人和人類之間的感情:

圖片

穿著熒光小馬甲,就能立刻上崗街頭指揮人車交通:

研究論文資料顯示,這個研究團隊共6人,其中過半是UCSD的在讀博士生。

為什么要對人形機器人做這樣的訓練呢?論文共同一作Xuxin Cheng在推特上賣力宣傳的同時,做出了解釋。

機器人總是被要求化身各行各業(yè)的打工人!我們就想跟它一起探索另一條方向的路~

當人形機器人“富有表現力”

團隊的這項研究名為《Expressive Whole-Body Control for Humanoid Robots》,研究目標是讓人形機器人在現實世界中產生豐富、多樣和富有表現力的動作。

在經過團隊的調教后,人形機器人能做出什么樣的行為呢?

路遇朋友迎面擊掌,這是不在話下的。

我都能腦補出它大聲喊了一句Hey Man……

圖片

圖片

親切一點,路遇兄弟,來個抱抱

圖片

有點搞笑的事,不管是擊掌還是擁抱,機器人下半身跺腳的行為并不會停止,只是會稍微放緩。

眼尖的朋友們可能已經發(fā)現了,上面的擊掌實驗在不同環(huán)境、不同地面進行。

團隊也明確表示,通過新研究訓練出來的人形機器人,可以在各種不同的地形地面上健步如飛。

除了上文展示過的草地和石板路,沙灘對它來說同樣是小菜一碟:

圖片

平整的辦公室地面也可以輕松應對:

圖片

團隊給出的更多展示中,還表現了更多遇到外界阻力時行動自如的demo。

狠狠拽它:

圖片

拿大球砸它:

圖片

還知道抬手示意,“喂,你可以幫我背上小書包了”。

圖片

各種操作,看得大伙兒一愣一愣的。

紐約大學計算機科學助理教授發(fā)推特應援,稱這么高水平控制力和表現力的研究成果,居然是一個6人組成的學術團隊的產出,“難以置信”!

圖片

更多的網友則選擇用“Cool”來形容這項工作:

圖片
圖片
圖片

“無他,照著人類學”

所以,究竟怎么才能讓機器人像以上般“張牙舞爪”、富有類人表現力?

設想的思路無他:照著人類學。

學習資料既包括各種人體動捕數據集,也包括生成模型、video2pose模型給出的模擬數據。

通過在強化學習框架中進行全身控制的大規(guī)模訓練,機器人就可以在現實世界中進行動作的泛化了。

然而,這樣的Sim2Real思想實際還是遇到了問題。

作者介紹,典型數據集中的人體模型有69個自由度,但他們所用的機器人只有19個。

除此之外,理論和實際的扭矩限制也不相同。

這就很尷尬了,等于學會的知識實際根本不能拿來就用。

那怎么辦?

那就做一個小小的改動

只讓上半身進行模仿,負責各種表現力,下半身則只負責在任意速度內把兩條腿控制穩(wěn)定就行。

作者姑且就管這個方法就叫做“表現型全身控制”(Expressive Whole-Body Control (Exbody))

由此,該機器人的整體框架就長這樣:

圖片

首先,在拿到各種數據集后,系統(tǒng)會有一個運動重定向,用于獲取一系列與符合機器人運動學結構的運動片段。

然后在從這些片段中提取表達目標和根運動目標,進行“Exbody”策略的強化學習訓練,最終將指令部署到真實機器人身上。

圖片

其中,表達目標就是機器人上半身要完成的,根運動目標則歸于下半身(當然,這部分也可以用遙控命令直接給出)

圖片

△ 所用數據集

最終,和各種基線方法相比,該機器人取得了如下成績:

有幾項比較突出的指標,整體表現還不錯。

圖片

(MELV:Mean Episode Linear Velocity Tracking Reward,線性速度跟蹤獎勵 MEK:Mean episode key body tracking reward,關鍵身體追蹤獎勵)

而從下圖來看,Exbody的策略也能讓機器人在表現時(例如擊掌)膝蓋彎曲更多,抬腳時腳離地面更高。言外之意,動作更賣力更富有表現力一些~當然,也更穩(wěn)。

圖片

全華人團隊出品

本研究一共6位作者,全部為華人,全部來自加州大學圣地亞哥分校(UCSD)

共同一作有兩位:

  • Xuxin Cheng,UCSD博一在讀,碩士畢業(yè)于CMU機器人專業(yè),本科則畢業(yè)于北理工自動化專業(yè)。
  • Yandong Ji,同UCSD博一在讀,碩士畢業(yè)于UC伯克利機械工程,本科畢業(yè)于南開大學電子計算機工程專業(yè)。

通訊作者為他們的導師Xiaolong Wang,UCSD電氣工程系助理教授。

圖片

他博士畢業(yè)于CMU,目前的研究方向集中于CV和機器人技術等等,谷歌學術顯示論文引用次數23000+。

哦對了最后,團隊成員還包括本次研究所用的機器人:來自宇樹科技的Unitree H1

One More Thing

要說最近的機器人進展,還真不少。

先是OpenAI和微軟押注的Figure剛剛宣布,新一輪融資籌集了約6.75億美元,融資前估值約20億美元。

緊接著發(fā)布了個視頻,介紹了旗下人形機器人Figure 01的最新進展,稱“一切都是自主的”。

再有就是那個面部表情極其豐富,有時驚艷有時又驚悚的Ameca,最新宣布已具有視覺能力。

她能觀察所處房間的整個情況,然后用各種各樣的聲音語氣(包括但不限于馬斯克、海綿寶寶)跟你繪聲繪色地描述。

就怪有意思的hhhhhh

責任編輯:張燕妮 來源: 量子位
相關推薦

2021-02-19 13:17:19

比特幣機器人加密貨幣

2017-03-24 10:00:53

迪拜機器人

2017-05-25 12:05:03

機器人軟體機器人大蜘蛛

2021-12-26 07:58:14

機器人AI人工智能

2021-04-19 20:30:06

機器人AI人工智能

2022-03-21 11:05:28

機器人遠程操控升級

2025-02-25 10:32:10

2025-03-10 12:01:45

2021-07-26 11:12:57

機器人人工智能科學

2024-04-28 09:15:22

人工智能人形機器人

2021-12-26 23:04:34

機器人人工智能技術

2022-10-17 15:35:32

人形機器人機器人

2023-03-28 07:49:38

2025-02-28 08:30:00

2024-01-05 19:44:48

谷歌機器人憲法AI

2023-08-30 11:23:21

人工智能機器人技術

2025-02-05 09:02:49

點贊
收藏

51CTO技術棧公眾號