自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

波士頓動力電驅(qū)機器人進廠打工,全程自主無遙控,50萬人在線圍觀

人工智能
簡化了收集全身遙控操作數(shù)據(jù)的方式,以便于訓練;且作為一個上游的視覺-語言-動作模型,只要提供運動指令,HOVER就能將其轉(zhuǎn)換為高頻的低級電機信號。

登上油管熱榜,吸引50萬網(wǎng)友圍觀,波士頓動力人形機器人又放大招了——

無遠程遙控(Fully Autonomous),Atlas可完全自主打工了。

圖片圖片

只需告訴Atlas前后搬運的位置坐標,它就能全自動分裝物件,動作be like:

圖片圖片

而在Atlas的第一視角下,它看到的是醬紫的:

圖片圖片

面對“刁難”(物件在底層位置),Atlas直接一個帥氣下蹲,再次成功完成任務(wù)。

圖片圖片

更有意思的是,當發(fā)現(xiàn)自己弄錯位置后,Atlas突然以一個鬼畜完成了瞬間糾錯。(笑死,怪突然的)

圖片圖片

總之,在近3分鐘demo中,Atlas進行了一系列秀肌肉操作:頭部、上半身、髖關(guān)節(jié)都能360°旋轉(zhuǎn),可隨時轉(zhuǎn)向、倒退行走……

圖片圖片

有網(wǎng)友驚呼,其他機器人還在學走路,Atlas已經(jīng)開始朝九晚五,甚至007式打工了!

圖片圖片

同行(通用倉庫機器人nimble ai創(chuàng)始人)大贊:Atlas已經(jīng)遙遙領(lǐng)先了。

只有機器人專家才知道Atlas有多棒

圖片圖片

網(wǎng)友:完全自主?你引起了我的注意

自從今年4月宣布改液壓為電驅(qū)后,這是波士頓動力人形機器人為數(shù)不多的露面。

上一次還是8月底,他們展示了Atlas能夠一口氣做俯臥撐、深蹲等熱身運動,當時就震驚了上百萬網(wǎng)友。

圖片圖片

而在最新demo中,Atlas又瞄準了自動化控制,現(xiàn)在它能在集裝箱和移動小車間自主移動發(fā)動機蓋了。

據(jù)波士頓動力介紹,Atlas使用機器學習視覺模型來檢測和定位環(huán)境固定裝置和單個箱子,并且會使用專門的抓取策略,通過不斷估計被操縱物體的狀態(tài)來完成任務(wù)。

機器人能夠結(jié)合視覺、力和感知來檢測環(huán)境變化(如移動固定裝置)和動作故障(如未能插入蓋子、絆倒、環(huán)境碰撞)并做出反應(yīng)。

圖片圖片

看完一系列最新表現(xiàn),果不其然又驚倒了一片網(wǎng)友:

完全自主?現(xiàn)在你引起了我的注意

圖片圖片

圖片圖片

網(wǎng)友們也是紛紛cue起了特斯拉人形機器人Optimus~

前一陣,Optimus在特斯拉的發(fā)布會上同樣大秀肌肉(開場熱舞、與人交談猜丁殼、倒酒等一個不落),不過最后被多方證明存在現(xiàn)場遠程操控。

后來特斯拉也發(fā)布了一個展示Optimus自主導航的demo:

圖片圖片

對于這兩家人形機器人領(lǐng)域同樣炙手可熱的競爭對手,網(wǎng)友們也開始各自站臺,并最終達成了一個“共識”。

二者的差距在于量產(chǎn)。波士頓動力單兵能力強,而特斯拉在商業(yè)化量產(chǎn)方面更具優(yōu)勢。

圖片圖片

背后的邏輯也很簡單,人形機器人最終還是要走向消費市場。

圖片圖片

不過不管怎樣,Atlas展現(xiàn)的細節(jié)已十分驚艷,比如可以360°旋轉(zhuǎn)的身體、頭部。

圖片圖片

圖片圖片

雖然也有人吐槽這很詭異,不過大多數(shù)人表示看好:

人形機器人能夠被設(shè)計而不是進化,意味著一旦我們弄清楚工程原理,各種變形金剛和驅(qū)魔人式的能力都可能發(fā)生。

圖片圖片

另外,還有人疑惑為什么Atlas不搞個360°全景攝像頭,還需要轉(zhuǎn)動頭部呢?

對此,有網(wǎng)友推測最大原因還是控成本。

更高分辨率的深度相機價格昂貴(帶寬和計算),因此將超密集傳感器限制在工作空間的位置是很有意義的。

圖片圖片

實在不行,也可以“低質(zhì)量的360°全景視覺+面向單一方向的高質(zhì)量相機/激光雷達”(網(wǎng)友支招有)

圖片圖片

One More Thing

在reddit網(wǎng)友一片熱議中,部分網(wǎng)友發(fā)出了靈魂拷問:

機器人完成這種任務(wù)(分裝物件)好像沒啥大意義?能不能更貼近現(xiàn)實生活。

圖片圖片

對此,也有人對Atlas采用的技術(shù)表達擔憂:基于點和規(guī)劃器/優(yōu)化器在泛化能力上可能不如神經(jīng)網(wǎng)絡(luò)等。

圖片圖片

且就在剛剛,英偉達新發(fā)布了HOVER,一個1.5M參數(shù)的神經(jīng)網(wǎng)絡(luò)控制器,用于人形機器人的全身運動和操作協(xié)調(diào)。

據(jù)負責英偉達具身智能實驗室(GEAR)的Jim Fan介紹:

人類在行走、保持平衡以及操縱四肢到達期望位置時,需要大量的潛意識處理。我們在HOVER中捕捉了這種“潛意識”,這是一個單一模型,學習如何協(xié)調(diào)人形機器人的電機以支持運動和操縱。

我們在NVIDIA Isaac中訓練了HOVER,這是一個GPU驅(qū)動的仿真套件,能夠?qū)崿F(xiàn)比現(xiàn)實時間快10000倍的物理模擬速度。

為了直觀理解這個數(shù)字,機器人在虛擬“道場”中經(jīng)歷了一年的密集訓練,但在一塊GPU卡上僅花費了大約50分鐘的真實時間。然后,神經(jīng)網(wǎng)絡(luò)無需微調(diào)即可零樣本遷移到現(xiàn)實世界。

簡單說,HOVER可以被“提示”執(zhí)行各種指令,英偉達稱之為“控制模式”。比如:

  • 頭部和手部姿勢:可以通過XR設(shè)備如蘋果的Vision Pro捕捉
  • 全身姿勢:通過動作捕捉或RGB相機
  • 全身關(guān)節(jié)角度:外骨骼
  • 根速度指令:操縱桿

概括而言,HOVER提供了一個統(tǒng)一接口,允許使用任何方便的輸入設(shè)備來控制機器人。

它簡化了收集全身遙控操作數(shù)據(jù)的方式,以便于訓練;且作為一個上游的視覺-語言-動作模型,只要提供運動指令,HOVER就能將其轉(zhuǎn)換為高頻的低級電機信號。

圖片圖片

對此,你怎么看?

參考鏈接:
[1]https://www.youtube.com/watch?v=F_7IPm7f1vI[2]https://www.reddit.com/r/singularity/comments/1gfmytj/new_creepy_atlas_video_dropped/[3]https://twitter.com/simonkalouche/status/1851632608171679817

責任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2024-04-19 09:24:24

機器人波士頓

2024-10-31 13:13:55

2024-01-22 09:03:00

機器人

2024-04-18 13:17:15

人形機器人

2017-10-18 08:49:09

機器人

2021-03-30 12:59:06

波士頓機器人人工智能

2020-03-04 15:10:16

機器人人工智能系統(tǒng)

2019-09-25 09:53:45

機器人人工智能系統(tǒng)

2021-08-25 14:06:57

機器人人工智能波士頓

2021-11-04 10:16:51

機器狗人工智能波士頓

2019-12-03 09:27:03

機器人人工智能系統(tǒng)

2020-02-18 10:26:58

機器人人工智能系統(tǒng)

2021-06-30 15:25:36

波士頓機器狗人工智能

2021-09-27 15:41:26

波士頓機器狗人工智能

2021-09-18 15:10:39

波士頓機器狗人工智能

2020-11-18 11:42:36

機器人人工智能系統(tǒng)

2024-09-18 08:42:00

2021-11-01 10:50:26

波士頓機器人人工智能

2022-06-27 11:33:38

機器人波士頓技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號