“AI世界”還缺點啥?牛津大學(xué)教授Michael Wooldridge:現(xiàn)實世界
無限猴子定理認(rèn)為,讓一只猴子在打字機(jī)上隨機(jī)地按鍵,當(dāng)按鍵時間達(dá)到無窮時,幾乎必然能夠打出任何給定的文字,比如莎士比亞的全套著作。
在這個定理中,“幾乎必然”是一個有特定含義的數(shù)學(xué)術(shù)語,“猴子”也不是指一只真正意義上的猴子,而是被用來比喻成一臺可以產(chǎn)生無限隨機(jī)字母序列的抽象設(shè)備。
這個理論說明,把一個很大但有限的數(shù)看成無限的推論是錯誤的,即使可觀測宇宙中充滿了一直不停打字的猴子,它們能夠打出一部《哈姆雷特》的概率仍然少于 1/10^183800。
而且,即使給無數(shù)只猴子無限的時間,它們也不會懂得如何欣賞吟游詩人詩意的措辭。
“人工智能(AI)也是如此,” 牛津大學(xué)計算機(jī)科學(xué)教授 Michael Wooldridge 這樣說道。
在 Wooldridge 看來,雖然 GPT-3 等 AI 模型借助數(shù)百億或數(shù)千億的參數(shù)展現(xiàn)出了令人驚訝的能力,但它們的問題不在于處理能力的大小,而在于缺乏來自現(xiàn)實世界的經(jīng)驗。
例如,一個語言模型可能會很好地學(xué)習(xí)“雨是濕的”,當(dāng)被問及雨是濕的還是干的時,它很可能會回答雨是濕的,但與人類不同的是,這個語言模型從未真正體驗過“潮濕”這種感覺,對它們來說,“濕”只不過是一個符號,只是經(jīng)常與“雨”等詞結(jié)合使用。
然而,Wooldridge 也強調(diào),缺乏現(xiàn)實物理世界知識并不能說明 AI 模型無用,也不會阻止某一 AI 模型成為某一領(lǐng)域的經(jīng)驗專家,但在諸如理解等問題上,如果認(rèn)為 AI 模型具備與人類相同能力的可能性,確實令人懷疑。
相關(guān)研究論文以“What Is Missing from Contemporary AI? The World”為題,已發(fā)表在《智能計算》(Intelligent Computing)雜志上。
在當(dāng)前的 AI 創(chuàng)新浪潮中,數(shù)據(jù)和算力已經(jīng)成為 AI 系統(tǒng)成功的基礎(chǔ):AI 模型的能力直接與其規(guī)模、用于訓(xùn)練它們的資源以及訓(xùn)練數(shù)據(jù)的規(guī)模成正比。
對于這一現(xiàn)象,DeepMind 研究科學(xué)家 Richard S. Sutton 此前就曾表示,AI 的“慘痛教訓(xùn)”是,它的進(jìn)步主要是使用越來越大的數(shù)據(jù)集和越來越多的計算資源。
在談及 AI 行業(yè)的整體發(fā)展時,Wooldridge 給出了肯定?!霸谶^去 15 年里,AI 行業(yè)的發(fā)展速度,特別是機(jī)器學(xué)習(xí)(ML)領(lǐng)域的發(fā)展速度,一再讓我感到意外:我們不得不不斷調(diào)整我們的預(yù)期,以確定什么是可能的,以及什么時候可能實現(xiàn)?!?
但是,Wooldridge 卻也指出了當(dāng)前 AI 行業(yè)存在的問題,“盡管他們的成就值得稱贊,但我認(rèn)為當(dāng)前大多數(shù)大型 ML 模型受到一個關(guān)鍵因素的限制:AI 模型沒有真正體驗過現(xiàn)實世界。
在 Wooldridge 看來,大多數(shù) ML 模型都是在電子游戲等虛擬世界中構(gòu)建的,它們可以在海量數(shù)據(jù)集上進(jìn)行訓(xùn)練,一旦涉及到物理世界的應(yīng)用,它們就會丟失重要信息,它們只是脫離實體的 AI 系統(tǒng)。
以支持自動駕駛汽車的人工智能為例。讓自動駕駛汽車在道路上自行學(xué)習(xí)是不太現(xiàn)實的,出于這個和其他原因,研究人員們往往選擇在虛擬世界中構(gòu)建他們的模型。
“但它們根本沒有能力在所有最重要的環(huán)境(即我們的世界)中運行,”Wooldridge 說道。
另一方面,語言 AI 模型也會受到同樣的限制??梢哉f,它們已經(jīng)從荒唐可怕的預(yù)測文本演變?yōu)楣雀璧?LAMDA。今年早些時候,一個前谷歌工程師聲稱人工智能程序 LAMDA 是有知覺的,一度成為了頭條新聞。
“無論這個工程師的結(jié)論的有效性如何,很明顯 LAMDA 的對話能力給他留下了深刻的印象——這是有充分理由的,” Wooldridge 說,但他并不認(rèn)為 LAMDA 是有知覺的,AI 也沒有接近這樣的里程碑。
“這些基礎(chǔ)模型展示了自然語言生成方面前所未有的能力,可以生成比較自然的文本片段,似乎也獲得了一些常識性推理能力,這是過去 60 年中 AI 研究的重大事件之一?!?
這些 AI 模型需要海量參數(shù)的輸入,并通過訓(xùn)練來理解它們。例如,GPT-3 使用互聯(lián)網(wǎng)上千億級的英語文本進(jìn)行訓(xùn)練。大量的訓(xùn)練數(shù)據(jù)與強大的計算能力相結(jié)合,使得這些 AI 模型表現(xiàn)得類似于人類的大腦,可以越過狹窄的任務(wù),開始識別模式,并建立起與主要任務(wù)似乎無關(guān)的聯(lián)系。
但是,Wooldridge 卻表示,基礎(chǔ)模型是一個賭注,“基于海量數(shù)據(jù)的訓(xùn)練使得它們在一系列領(lǐng)域具備有用的能力,也進(jìn)而可以專門用于特定的應(yīng)用?!?
“符號人工智能(symbolic AI)是基于‘智能主要是知識問題’的假設(shè),而基礎(chǔ)模型是基于‘智能主要是數(shù)據(jù)問題’的假設(shè),在大模型中輸入足夠的訓(xùn)練數(shù)據(jù),就被認(rèn)為有希望提高模型的能力?!?
Wooldridge 認(rèn)為,為了產(chǎn)生更智能的 AI,這種“可能即正確”(might is right)的方法將 AI 模型的規(guī)模不斷擴(kuò)大,但忽略了真正推進(jìn) AI 所需的現(xiàn)實物理世界知識。
“公平地說,有一些跡象表明這種情況正在改變,” Wooldridge說。今年 5 月,DeepMind 宣布了基于大型語言集和機(jī)器人數(shù)據(jù)的基礎(chǔ)模型 Gato,該模型可以在簡單的物理環(huán)境中運行。
“很高興看到基礎(chǔ)模型邁出了進(jìn)入物理世界的第一步,但只是一小步:要讓 AI 在我們的世界中工作,需要克服的挑戰(zhàn)至少和讓 AI 在模擬環(huán)境中工作所面臨的挑戰(zhàn)一樣大,甚至可能更大?!?
在論文的最后,Wooldridge 這樣寫道:“我們并不是在尋找 AI 道路的盡頭,但我們可能已經(jīng)走到了道路起點的盡頭。”