馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!
前兩天, 谷歌搞了一個機器人方面的新研究——PaLM-SayCan。
簡單來說就是,「你已經(jīng)是個成熟的機器人了,可以自己學會服務(wù)我了?!?/span>
但馬庫斯不這么認為。
我懂了,你們要做一個「終結(jié)者」出來
從表演節(jié)目上來看,谷歌的新機器人PaLM-SayCan確實很酷炫。
人類說一句,機器人聽一句,立馬行動不帶猶豫。
這款機器人可是相當「懂事」,你不用硬邦邦地說一句「從廚房里給我拿來椒鹽卷餅」,只要說一句「我餓了」,它就會自己走到桌子旁,然后給你拿來零食。
不需要多余的廢話,不需要更多細節(jié)。馬庫斯(Marcus)承認:它真的是我見過的最接近 Rosie the Robot的機器人。
從這個項目可以看出,Alphabet歷來獨立的兩個部門——Everyday Robots和Google Brain,投入了很多精力。參與項目的Chelsea Finn和Sergey Levine都是學術(shù)大牛。
很顯然,谷歌投入了大量的資源(比如大量的預訓練語言模型和類人機器人以及大量的云計算),才造出來這么牛掰的機器人。
Marcus對此表示:我絲毫不驚訝他們能把機器人造得這么好,我只是有些擔心——我們是否應(yīng)該這樣做?
Marcus認為,存在兩個問題。
「瓷器店里的公?!?/h4>
首先,就是眾所周知的,這個新系統(tǒng)所依賴的語言技術(shù),本身就有問題;其次,在機器人的背景下,問題可能會更大。
暫且不說機器人,我們已經(jīng)知道所謂的大語言模型就像公牛一樣——厲害、強大、魯莽地在瓷器店里橫沖直撞。他們可以在一瞬間直接瞄準目標,然后轉(zhuǎn)向未知的危險。一個特別生動的例子來自法國 Nabla 公司,該公司探索了GPT-3作為醫(yī)療顧問的效用:
像這樣的問題不勝枚舉。
Alphabet 的另一家子公司DeepMind就提出了大型語言模型的 21 個社會和倫理問題,涉及公平、數(shù)據(jù)泄露和信息等主題。
論文地址:https://arxiv.org/pdf/2112.04359.pdf
但是他們卻沒提這一點:被某些模型嵌入的機器人,有可能會把您的寵物干掉,或者毀掉您的房子。
我們真的應(yīng)該重視這一點。PaLM-SayCam實驗清楚地表明,有21個問題需要更新。
比如大型語言模型會建議人自殺,或者簽署種族滅絕協(xié)定,或者它們可能帶毒。
而且它們對訓練集的細節(jié)非常(過度)敏感——當你把這些訓練集放進機器人里,如果他們誤解了你,或者沒有充分理解你要求的含義,他們可能會給你帶來大麻煩。
值得稱贊的是,PaLM-SayCan 的工作人員至少能想到預防這種情況的發(fā)生。
對于機器人那里傳來的每一個請求,他們都會進行一種可行性檢查:語言模型推斷出用戶想要做的這件事,是否真的可以完成。
但是這就萬無一失了嗎?如果用戶要求系統(tǒng)將貓放入洗碗機,這的確是可行的,但安全嗎?合乎道德嗎?
如果系統(tǒng)誤解了人類,也會發(fā)生類似的問題。
比如,如果人們說「把它放在洗碗機里」,而大語言模型將「它」的指代對象視為單詞cat,而用戶指的是別的東西。
從對大型語言模型的所有研究中,我們會了解到:它們根本就不夠可靠,無法讓我們100%地清楚了解用戶的意圖。誤解是無法避免的。如果不對這些系統(tǒng)進行真正嚴格的檢查,其中一些誤解可能會導致災(zāi)難。
Maayan Harel 為Rebooting AI畫了這個很棒的插圖,機器人被告知要把客廳里的所有東西都收起來:
還記得《愛,死亡,機器人》原著第三部中,那個要求主人把貓扔向發(fā)狂的掃地機器人的故事么。
與真實世界的鴻溝
現(xiàn)實的情況是,目前就是沒有可行的辦法能夠解決許多困擾大型語言模型的「alignment」問題。
正如Marcus在之前提到的:大型語言模型只是是膚淺的統(tǒng)計模擬,而不是傳遞它們周圍世界的豐富認知的模型。在對世界知之甚少的語言系統(tǒng)上構(gòu)建機器人,是不可能成功的。
而這正是谷歌的新系統(tǒng)正在做的事:將膚淺、不可救藥的語言理解器與強大且具有潛在危險的人形機器人縫合在一起。俗話說,垃圾進,垃圾出(garbage in, garbage out)。
要記住,演示與現(xiàn)實之間通常存在巨大的鴻溝。
無人駕駛汽車演示已經(jīng)存在了幾十年,但事實證明,讓它們可靠地工作比我們想象的要困難得多。
谷歌聯(lián)合創(chuàng)始人謝爾蓋布林在2012年就承諾,我們會在2017年用上無人駕駛汽車;現(xiàn)在到了2022年,它們?nèi)匀惶幱谟邢薜膶嶒灉y試階段。
Marcus在2016年就曾警告過,核心問題是邊緣情況:
無人駕駛汽車在常見的情況下,是表現(xiàn)很棒。如果你把它們放在帕洛阿爾托的晴朗天氣里,它們就很棒。如果你把它們放在有雪或有雨的地方,或者它們以前沒見過的地方,對它們來說就很難了。Steven Levy 有一篇關(guān)于谷歌自動汽車工廠的精彩文章,他談到了2015年底的巨大勝利是他們終于讓這些系統(tǒng)識別樹葉了。系統(tǒng)能識別樹葉,這很好,但還有一些不那么常見的東西,就沒那么多數(shù)據(jù)了。
這仍然是核心問題。直到最近幾年,無人駕駛汽車行業(yè)才意識到這個現(xiàn)實。正如 Waymo AI/ML 工程師 Warren Craddock 最近在一個應(yīng)該完整閱讀的線程中所說的那樣:
事實就是:有無數(shù)種邊緣情況。有無數(shù)不同的萬圣節(jié)服裝。闖紅燈的速度是連續(xù)的。無法枚舉邊緣情況。即使可以枚舉邊緣情況,也無濟于事!
而且,最重要的是——
當明白邊緣情況在本質(zhì)上也是無限的,你就可以看到問題有多復雜了。深度網(wǎng)絡(luò)的本質(zhì)——它們的基本機制——意味著邊緣情況很容易被遺忘。你不能只體驗一次邊緣案例,然后讓它消失。?
沒有理由認為,機器人或具有自然語言界面的機器人(比如谷歌的新系統(tǒng))可以免除這些問題。
可解釋性問題
還有一個問題是可解釋性。
谷歌對讓系統(tǒng)如何在一定程度上可解釋做了很大的努力,但沒有找到明顯的方法,將大型語言模型與那種(在微處理器、USB 驅(qū)動程序和大型飛機設(shè)計中常用的形式驗證方法)結(jié)合在一起。
對,使用 GPT-3 或 PaLM 寫超現(xiàn)實散文無需通過驗證;你也可以欺騙 Google 工程師,讓他們相信你的軟件是有感知的,而無需確保系統(tǒng)是連貫的或正確的。
但是,處理各種家務(wù)的類人家庭機器人(不僅僅是 Roomba 的吸塵器)需要做的,不僅僅是與用戶社交,它們還需要可靠、安全地處理用戶請求。如果沒有更大程度的可解釋性和可驗證性,很難看出我們?nèi)绾尾拍苓_到這種安全水平。
無人駕駛汽車行業(yè)一直押寶的「更多數(shù)據(jù)」,成功的可能性并不是那么大。Marcus在2016年的那次采訪中就這樣說過,現(xiàn)在他仍然這樣認為——大數(shù)據(jù)不足以解決機器人問題:
如果你想在家中擁有一個機器人——我仍然幻想著Rosie機器人會給我做家務(wù)——你不能讓它犯錯誤。[強化學習]很大程度上是大規(guī)模的試錯。如果你家里有一個機器人,你不能讓它多次撞到你的家具上。你不希望它把你的貓放在洗碗機里洗一次。你無法獲得相同規(guī)模的數(shù)據(jù)。對于現(xiàn)實環(huán)境中的機器人,我們需要的是讓它從少量數(shù)據(jù)中快速學習。
谷歌和EveryDay Robots后來知道了這一切,甚至還制作了一段搞笑視頻來承認這一點。
但這并不能阻止部分媒體得意忘形。<WIRED>用一個夸張的標題寫了這篇文章,美化了研究情況,說得好像一個關(guān)鍵問題已經(jīng)解決了似的。
谷歌的新機器人通過「網(wǎng)頁抓取」學會聽命令
這讓人想起了 2015 年<WIRED>雜志上的兩篇文章,都是同樣的樂觀標題,和從未落地的項目。
Facebook宣布開啟M計劃,向Siri和Cortana發(fā)起挑戰(zhàn)
以及這一篇——
深度學習馬上會讓我們擁有超級智能的機器人
后來的故事我們都知道了:Facebook M流產(chǎn)了,7 年來,沒有人可以以任何價格購買超級智能的機器人。
誰信誰是傻子
當然,谷歌的新機器人確實通過「網(wǎng)頁抓取」(scraping the web)學會了接受一些訂單,但機器人技術(shù)存在于細節(jié)中。
在理想的情況下,當機器人可選的選項數(shù)量有限時,性能大概在 75% 左右。機器人可選的動作越多,性能可能就越差。
Palm-SayCan 機器人只需要處理6個動詞;而人類的動詞有成千上萬。如果仔細閱讀一下Google的報告,就會發(fā)現(xiàn),在某些操作上,系統(tǒng)的正確執(zhí)行率為0%。
對于一個通用的類人家用機器人來說,75%還遠遠不夠。想象一下,一個家用機器人被要求將爺爺抬到床上,但四次中只有三次成功。
沒錯,谷歌做了很酷的演示。但是離現(xiàn)實世界的產(chǎn)品,還遠著呢。
PaLM-SayCan提供了對未來的愿景——在這個Jetsons一樣的系統(tǒng)中,我們可以與機器人交談,讓它們幫助完成日?,嵤?。這是一個美好的愿景。
但Marcus表示:但我們中如果有誰——包括馬斯克——在「屏住呼吸」,期待這樣的系統(tǒng)在未來幾年內(nèi)實現(xiàn),那他就是傻子。