自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

Gary Marcus公開喊話Hinton、馬斯克:深度學(xué)習(xí)就是撞墻了,我賭十萬美金

人工智能 深度學(xué)習(xí)
2029 年實(shí)現(xiàn) AGI ? Gary Marcus:不可能,我賭十萬美金。

?「如果有人說(深度學(xué)習(xí))撞墻了,那么他們只需列出一張清單,列出深度學(xué)習(xí)無法做到的事情。5 年后,我們就能證明深度學(xué)習(xí)做到了?!?/p>

6 月 1 日,深居簡出的 Geoffrey Hinton 老爺子做客 UC 伯克利教授 Pieter Abbeel 的播客節(jié)目,倆人進(jìn)行了長達(dá) 90 分鐘的對談,從 Masked auto-encoders、AlexNet 聊到脈沖神經(jīng)網(wǎng)絡(luò)等等。

圖片

在節(jié)目里,Hinton 明確對「深度學(xué)習(xí)撞墻了」這個觀點(diǎn)發(fā)起質(zhì)疑。

「深度學(xué)習(xí)撞墻了」這個說法,來自知名 AI 學(xué)者 Gary Marcus 三月份的一篇文章?。準(zhǔn)確地說,他認(rèn)為「純粹的端到端深度學(xué)習(xí)」差不多走到盡頭了,整個 AI 領(lǐng)域必須要尋找新出路。

出路在哪兒?按照 Gary Marcus 的想法,符號處理將大有前途。不過這個觀點(diǎn)一向沒有受到社區(qū)重視,之前 Hinton 甚至說過:「在符號處理方法上的任何投資都是一個巨大的錯誤?!?/p>

Hinton 在播客里的公開「反駁」顯然引起了 Gary Marcus 的注意。

就在十幾個小時前,Gary Marcus 在推特上發(fā)出了一封給 Geoffrey Hinton 的公開信:

圖片

信里是這么說的:「我注意到,Geoffrey Hinton 正在尋找一些挑戰(zhàn)性的目標(biāo)。在 Ernie Davis 的幫助下,我確實(shí)已經(jīng)寫下了這樣一個清單,上周我還向馬斯克發(fā)出了一個 100000 美元的賭約。」

這里又有馬斯克什么事?原因還要從 5 月底的一條推特說起。

與馬斯克的十萬美金賭約

一直以來,人們所理解的 AGI 是太空漫游(HAL)和鋼鐵俠(JARVIS)等電影中描述的那種 AI。與當(dāng)前為特定任務(wù)訓(xùn)練的 AI 不同,AGI 更像人腦,可以學(xué)習(xí)如何完成任務(wù)。

大多數(shù)專家認(rèn)為 AGI 需要幾十年才能實(shí)現(xiàn),而有些人甚至認(rèn)為這個目標(biāo)永遠(yuǎn)不可能實(shí)現(xiàn)。在對該領(lǐng)域?qū)<业恼{(diào)查中,預(yù)估到 2099 年將有 50% 的機(jī)會實(shí)現(xiàn) AGI。

相比之下,馬斯克顯得更加樂觀,甚至在推特上公開表達(dá):「2029 年是關(guān)鍵的一年,如果那時我們還沒有實(shí)現(xiàn) AGI,我會感到驚訝。希望火星上的人們也是如此?!?/p>

圖片

表示并不認(rèn)同的 Gary Marcus 很快反問:「你愿意賭多少錢?」

圖片

雖然馬斯克并沒有回復(fù)這條提問,但 Gary Marcus 繼續(xù)表示,可以在 Long Bets 組局,金額是十萬美元。

在 Gary Marcus 看來,馬斯克的相關(guān)觀點(diǎn)不大靠譜:「比如你在 2015 年說過,實(shí)現(xiàn)完全自動駕駛的汽車還需要兩年時間,從那以后,你幾乎每年都說一遍同樣的話,可現(xiàn)在完全自動駕駛?cè)晕磳?shí)現(xiàn)?!?/p>

他還在博客中寫下了五個檢驗(yàn) AGI 是否實(shí)現(xiàn)的標(biāo)準(zhǔn),作為打賭的內(nèi)容:

  • 2029 年,AI 無法看懂電影然后準(zhǔn)確告訴你正在發(fā)生的事情(人物是誰、他們的沖突和動機(jī)是什么等);
  • 2029 年,AI 無法閱讀小說并可靠地回答有關(guān)情節(jié)、人物、沖突、動機(jī)等的問題;
  • 2029 年,AI 無法在任何廚房中擔(dān)任稱職的廚師;
  • 2029 年,AI 無法通過自然語言規(guī)范或與非專家用戶的交互可靠地構(gòu)建超過 10000 行的無錯誤代碼(將現(xiàn)有庫中的代碼粘合在一起不算數(shù));
  • 2029 年,AI 無法從以自然語言編寫的數(shù)學(xué)文獻(xiàn)中任意取證,并將其轉(zhuǎn)換為適合符號驗(yàn)證的符號形式。

圖片

「這是我的建議,如果你(或任何其他人)在 2029 年設(shè)法完成至少三個,就算你贏了。Deal?十萬美元如何?」

在更多人的追捧下,這個賭約的金額已經(jīng)上升到了 50 萬美元。不過,截至目前,馬斯克再無回復(fù)。

Gary Marcus:AGI 并不像你想象的「近在眼前」

6 月 6 日,Gary Marcus 在《科學(xué)美國人》發(fā)表文章,重申了自己的觀點(diǎn):AGI 并非近在眼前。

圖片

對于普通人來說,人工智能領(lǐng)域似乎正在取得巨大進(jìn)步。在媒體的報(bào)道中:OpenAI 的 DALL-E 2 似乎可以將任何文本轉(zhuǎn)換成圖像,GPT-3 無所不知,DeepMind 5 月發(fā)布的 Gato 系統(tǒng)在每一項(xiàng)任務(wù)上都性能良好......DeepMind 的一位高級管理人員甚至吹噓已開始尋求通用人工智能 (AGI)、AI 具有與人類一樣的智能水平......

別被騙了。機(jī)器有一天可能會和人一樣聰明,甚至可能更聰明,但遠(yuǎn)不是現(xiàn)在。要創(chuàng)造真正理解和推理現(xiàn)實(shí)世界的機(jī)器,還有大量的工作要做。我們現(xiàn)在真正需要的是更少的吹捧姿態(tài)和更多的基礎(chǔ)研究。

可以肯定的是,人工智能確實(shí)在某些方面取得了進(jìn)步——合成圖像看起來越來越逼真,語音識別可以在嘈雜環(huán)境中工作——但我們距離通用的人類水平 AI 還有很長的路要走,例如人工智能現(xiàn)在還不能理解文章和視頻的真正含義,也不能處理意外障礙和中斷。我們?nèi)匀幻媾R AI 多年來一直存在的挑戰(zhàn)——讓人工智能變得可靠。

以 Gato 為例,給定任務(wù):為投手投擲棒球的圖像加上標(biāo)題,系統(tǒng)返回三個不同的答案:「一名棒球運(yùn)動員在棒球場上投球」、「一名男子向棒球場上的投手投擲棒球」和「一名棒球運(yùn)動員在擊球,一名接球手在一場棒球比賽」。第一個答案是正確的,而其他兩個答案似乎包含圖像中看不到的其他球員。這說明 Gato 系統(tǒng)并不知道圖像中的實(shí)際內(nèi)容,而是了解大致相似圖像的典型內(nèi)容。任何棒球迷都能看出這是剛剛投球的投手——雖然我們預(yù)計(jì)附近有接球手和擊球手,但他們顯然沒有出現(xiàn)在圖像中。

圖片

同樣,DALL-E 2 會混淆這兩種位置關(guān)系:「藍(lán)色立方體頂部的紅色立方體」和「紅色立方體頂部的藍(lán)色立方體」。類似地,5 月谷歌發(fā)布的 Imagen 模型無法區(qū)分「宇航員騎馬」和「馬騎宇航員」。

圖片

當(dāng) DALL-E 這樣的系統(tǒng)出錯時,你可能還覺得有些滑稽,但有一些 AI 系統(tǒng)如果出錯,就會產(chǎn)生非常嚴(yán)重的問題。例如,一輛自動駕駛的特斯拉最近直接向路中間拿著停車標(biāo)志的工人開去,人類司機(jī)干預(yù)后才能減速。該自動駕駛系統(tǒng)可以單獨(dú)識別人類和停車標(biāo)志,但遇到兩者的不尋常組合時就未能減速。

所以,很不幸,AI 系統(tǒng)仍然不可靠,并且難以迅速適應(yīng)新環(huán)境。

Gato 在 DeepMind 報(bào)告的所有任務(wù)上都表現(xiàn)出色,但很少能像其他當(dāng)代系統(tǒng)一樣。GPT-3 經(jīng)常寫出流利的散文,但仍然難以掌握基本的算術(shù),而且它對現(xiàn)實(shí)的了解太少,很容易產(chǎn)生「一些專家認(rèn)為吃襪子有助于大腦改變狀態(tài)」之類令人匪夷所思的句子。

這背后存在的問題是,人工智能領(lǐng)域最大的研究團(tuán)隊(duì)不再是學(xué)術(shù)機(jī)構(gòu),而是大型科技企業(yè)。與大學(xué)不同,企業(yè)沒有公平競爭的動力。他們的新論文沒有經(jīng)過學(xué)術(shù)審查就通過新聞發(fā)布,引導(dǎo)媒體報(bào)道,并回避同行評審。我們所獲得的信息只是企業(yè)本身想讓我們知道的事情。

在軟件行業(yè),有一個專門的詞代表這種商業(yè)策略「demoware」,指軟件的設(shè)計(jì)很適合展示,但不一定適合現(xiàn)實(shí)世界。

而這樣營銷的 AI 產(chǎn)品,要么無法順利發(fā)布,要么在現(xiàn)實(shí)中一塌糊涂。

深度學(xué)習(xí)提高了機(jī)器識別數(shù)據(jù)模式的能力,但它存在三大缺陷:學(xué)習(xí)的模式是膚淺的,而不是概念性的;產(chǎn)生的結(jié)果難以解釋;很難泛化。正如哈佛計(jì)算機(jī)科學(xué)家 Les Valiant 所指出的:「未來的核心挑戰(zhàn)是統(tǒng)一 AI 學(xué)習(xí)和推理的形式。」

目前,企業(yè)追求的是超越基準(zhǔn),而不是創(chuàng)造新的想法,他們用已有的技術(shù)勉強(qiáng)進(jìn)行小幅改進(jìn),而不是停下來思考更基本的問題。

我們需要有更多的人詢問「如何構(gòu)建可以同時學(xué)習(xí)和推理的系統(tǒng)」等基本問題,而不是追求華麗的產(chǎn)品展示。

這場關(guān)于 AGI 的爭辯遠(yuǎn)未到達(dá)終點(diǎn),也有其他研究者陸續(xù)加入。研究者 Scott Alexander 就在博客中指出,Gary Marcus 是個傳奇,過去幾年里寫的東西或多或少不完全準(zhǔn)確,但仍然有其價值。

比如 Gary Marcus 此前曾經(jīng)批判過 GPT-2 的一些問題,八個月后,GPT-3 誕生時,這些問題都得以解決。但 Gary Marcus 并沒有對 GPT-3 留情,甚至寫了一篇文章:「OpenAI 的語言生成器不知道它在說什么。」

本質(zhì)上說,一個觀點(diǎn)目前而言是對的:「Gary Marcus 以嘲笑大型語言模型為噱頭,但之后這些模型會變得越來越好,如果這個趨勢持續(xù)下去,AGI 很快就會實(shí)現(xiàn)?!?

責(zé)任編輯:趙寧寧 來源: 機(jī)器之心
相關(guān)推薦

2023-04-20 17:51:41

馬斯克微軟

2022-06-20 09:00:00

深度學(xué)習(xí)人工智能研究

2018-01-04 13:21:10

深度學(xué)習(xí)人工智能數(shù)據(jù)

2025-03-04 08:30:00

AI馬斯克模型

2022-01-23 10:53:47

星鏈互聯(lián)網(wǎng)衛(wèi)星

2022-11-15 12:50:41

馬斯克推特

2023-10-25 11:05:54

深度偽造AI

2024-08-06 16:03:18

馬斯克OpenAI人工智能

2025-01-03 15:42:59

AI模型數(shù)據(jù)

2022-05-25 13:57:46

AI模型游戲

2022-04-15 10:55:59

Web3反壟斷元宇宙

2024-01-31 12:49:40

微軟OpenAI英特爾

2021-06-11 17:14:26

黑客馬斯克加密貨幣

2022-11-29 14:23:08

2024-08-27 13:13:03

2024-08-27 16:58:24

2023-12-28 17:15:07

2025-02-11 11:46:48

OpenAI奧特曼馬斯克

2025-03-31 08:15:00

馬斯克AI模型

2020-08-31 12:01:43

網(wǎng)絡(luò)攻擊惡意軟件網(wǎng)絡(luò)安全
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號