自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

馬庫斯發(fā)文炮轟LeCun:只靠深度學(xué)習(xí)無法實(shí)現(xiàn)類人智能

人工智能 新聞
繼提出「深度學(xué)習(xí)撞墻」后,馬庫斯再發(fā)長(zhǎng)文稱,僅靠深度學(xué)習(xí)并不能實(shí)現(xiàn)類人智能。

今年3月,Gary Marcus(加里·馬庫斯)提出「深度學(xué)習(xí)撞墻」這個(gè)觀點(diǎn)后,在人工智能學(xué)界激起千層浪。

當(dāng)時(shí),就連深度學(xué)習(xí)三巨頭都坐不住了,先是Geoffrey Hinton在一期播客中駁斥了這個(gè)觀點(diǎn)。

緊接著6月,Yann LeCun撰寫了一篇文章對(duì)此作出了回應(yīng),并指出別把一時(shí)困難當(dāng)撞墻。

現(xiàn)在,馬庫斯在美國NOEMA雜志發(fā)表了一篇題為「Deep Learning Alone Isn’t Getting Us To Human-Like AI」的文章。

圖片

同樣,他依舊沒有改變自己的觀點(diǎn)——僅靠深度學(xué)習(xí)并不能實(shí)現(xiàn)類人智能。

并提出,當(dāng)前人工智能主要集中在深度學(xué)習(xí)上的研究,是時(shí)候該重新考慮一下了。

圖片

近70年來,人工智能領(lǐng)域中最根本的爭(zhēng)論就是:人工智能系統(tǒng)是否應(yīng)該建立在「符號(hào)操作」上 ,還是應(yīng)該建立在類腦的「神經(jīng)網(wǎng)絡(luò)」系統(tǒng)之上。

其實(shí),這里還有第三種可能性:混合模型 ——將神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)與符號(hào)操作的強(qiáng)大抽象能力相結(jié)合。

LeCun近期在NOEMA雜志發(fā)表的文章「What AI Can Tell Us About Intelligence」同樣探討了這個(gè)問題,但是馬庫斯指出他的文章看似清晰,但又有明顯缺陷,即前后邏輯矛盾。

這篇文章開頭,他們拒絕混合模型,但文章最后又承認(rèn)混合模型的存在,并提到它是一種可能的前進(jìn)方式。

神經(jīng)網(wǎng)絡(luò)和符號(hào)操作的混合模型

馬庫斯指出,LeCun和Browning的觀點(diǎn)主要是「如果一個(gè)模型學(xué)會(huì)了符號(hào)操作,它就不是混合的」。

但機(jī)器學(xué)習(xí)的問題是一個(gè)發(fā)展的問題(系統(tǒng)是如何產(chǎn)生的?)

而系統(tǒng)一旦發(fā)展起來如何運(yùn)作是一個(gè)計(jì)算問題(例如,它使用一種機(jī)制還是兩種機(jī)制?),即「任何利用了符號(hào)和神經(jīng)網(wǎng)絡(luò)兩者的系統(tǒng)都是混合模型」。

也許他們真正想說的是,人工智能很可能是一種學(xué)習(xí)的混合體,而不是天生的混合體。但學(xué)習(xí)的混合體仍然是混合體。

而馬庫斯的觀點(diǎn)是,「符號(hào)操作本身就是與生俱來的,或者有另外一種東西是與生俱來的,這種東西間接促成了符號(hào)操作的產(chǎn)生」。

所以我們的研究重心應(yīng)當(dāng)放在如何發(fā)現(xiàn)這個(gè)間接促成符號(hào)操作的介質(zhì)上。

即提出了假設(shè),只要我們能弄清楚是什么介質(zhì)讓系統(tǒng)達(dá)到可以學(xué)習(xí)符號(hào)抽象的程度,我們就能構(gòu)建利用世界上所有知識(shí)的系統(tǒng)。

接下來,馬庫斯引經(jīng)據(jù)典,梳理了人工智能領(lǐng)域關(guān)于符號(hào)操作和神經(jīng)網(wǎng)絡(luò)辯論的歷史。

早期的人工智能先驅(qū)如Marvin Minsky、John McCarthy認(rèn)為符號(hào)操作是唯一合理的前進(jìn)方式。

圖片

而神經(jīng)網(wǎng)絡(luò)先驅(qū)Frank Rosenblatt則認(rèn)為,AI建立在神經(jīng)節(jié)點(diǎn)疊加并處理數(shù)字輸入的結(jié)構(gòu)上表現(xiàn)可能會(huì)更好。

圖片

事實(shí)上,這兩種可能性并不相互排斥。

AI所使用的神經(jīng)網(wǎng)絡(luò)并不是字面上的生物神經(jīng)元網(wǎng)絡(luò),相反,它是一個(gè)簡(jiǎn)化的數(shù)字模型,它具備一些人類大腦的特性,但復(fù)雜性很小。

原則上,這些抽象符號(hào)可以以許多不同的方式連接起來,其中一些可以直接實(shí)現(xiàn)邏輯和符號(hào)操作。

Warren S. McCulloch 和 Walter Pitts在1943年發(fā)表的A Logical Calculus of the Ideas Inmanent in Nervous Activity,明確承認(rèn)了這種可能性。

其他人包括1950 年代的 Frank Rosenblatt 和 1980 年代的 David Rumelhart 和 Jay McClelland,提出了神經(jīng)網(wǎng)絡(luò)作為符號(hào)操作的替代方案。Geoffrey Hinton 也普遍支持這一立場(chǎng)。

然后馬庫斯又接連把LeCun、Hinton和Yoshua Bengio等圖靈獎(jiǎng)獲得者cue了個(gè)遍。

意思是光我說了不算,其他大佬都這么說的!

時(shí)間來到2015年,LeCun、Bengio和Hinton在Nature上寫了一篇關(guān)于深度學(xué)習(xí)的宣言式論文。

這篇文章以對(duì)符號(hào)的攻擊結(jié)束,認(rèn)為「需要新的范式來通過對(duì)大向量的操作來取代基于規(guī)則的符號(hào)表達(dá)式操作」。

圖片

事實(shí)上,Hinton 非常確信符號(hào)是一條死胡同,同年他在斯坦福大學(xué)發(fā)表了一個(gè)名為「以太符號(hào)」的演講——將符號(hào)比作科學(xué)史上最大的錯(cuò)誤之一。

上世紀(jì)80年代,他的兩位前合作者 Rumelhart 和 McClelland 也提出了類似的論點(diǎn),他們?cè)?1986 年的一本著名著作中辯稱,符號(hào)不是「人類計(jì)算的本質(zhì)」,引發(fā)了大辯論。

馬庫斯稱,2018年他寫了一篇文章為符號(hào)操作辯護(hù)時(shí),LeCun不加解釋地否定了他關(guān)于混合AI的論點(diǎn),在 Twitter上將其斥為「大部分錯(cuò)誤的觀點(diǎn)」。

圖片

然后又說,兩位著名的深度學(xué)習(xí)領(lǐng)域的大牛也表示支持混合 AI。

Andrew Ng在3月表示支持此類系統(tǒng)。Sepp Hochreiter——LSTMs 的共同創(chuàng)造者,領(lǐng)先的學(xué)習(xí)序列深度學(xué)習(xí)架構(gòu)之一,也做了同樣的事情,他在四月公開表示,最有希望的廣泛人工智能方法是神經(jīng)符號(hào)人工智能。

而在LeCun和Browning的新觀點(diǎn)里,符號(hào)操作實(shí)際上是至關(guān)重要的,正如馬庫斯和Steven Pinker從1988年開始提出的觀點(diǎn)。

馬庫斯也就由此指責(zé)Lecun,「你的觀點(diǎn)我?guī)资昵熬吞岢隽?,你的研究倒退了幾十年」?/span>

而且不只是我一個(gè)人說的,其他大佬也這么認(rèn)為。

LeCun 和 Browning 的其余文章大致可以分為三個(gè)部分:

1、對(duì)我的立場(chǎng)的錯(cuò)誤描述2、努力縮小混合模型的范圍3、符號(hào)操作可能是通過學(xué)習(xí)而不是與生俱來的原因。

接下來馬庫斯又針對(duì)LeCun論文中的觀點(diǎn)進(jìn)行反駁:

LeCun和Browning說,「Marcus說,如果你一開始沒有符號(hào)操作,你就永遠(yuǎn)不會(huì)擁有它」。

而事實(shí)上我在2001年的《代數(shù)思維》一書中明確承認(rèn),我們不確定符號(hào)操作是否是與生俱來的。

他們批評(píng)我「深度學(xué)習(xí)無法取得進(jìn)一步進(jìn)展」的言論,而我的實(shí)際觀點(diǎn)并不是DL在任何問題上都不會(huì)再有進(jìn)展,而是深度學(xué)習(xí)本身對(duì)于組合性、推理等某些工作來說是錯(cuò)誤的工具。

同樣,他們污蔑我說系統(tǒng)中符號(hào)推理要么有要么沒有(1或者0)。

這根本就是瞎說。

的確DALL-E不使用符號(hào)進(jìn)行推理,但這并不意味著任何包含符號(hào)推理的系統(tǒng)都必須是有或者沒有。

至少早在上世紀(jì)70年代的系統(tǒng)MYCIN中,就有純粹的符號(hào)系統(tǒng)可以進(jìn)行各種定量推理。

符號(hào)操作先天性

符號(hào)操作能力是否可以通過學(xué)習(xí)而不是從一開始就建立?

答案是肯定的。

馬庫斯稱,之前的實(shí)驗(yàn)雖然不能保證符號(hào)操作的能力是與生俱來的,但幾乎與這一觀點(diǎn)別無二致。它們確實(shí)對(duì)任何依賴大量經(jīng)驗(yàn)的學(xué)習(xí)理論構(gòu)成了挑戰(zhàn)。

并提出了以下2個(gè)主要的論點(diǎn):

1、可學(xué)習(xí)性

在2001年出版的The Algebraic Mind一書中,馬庫斯展示了某些系統(tǒng)都能夠?qū)W習(xí)符號(hào)操作。

一個(gè)系統(tǒng),如果有一些內(nèi)置的起點(diǎn),將比一塊純粹的白板更能有效地了解這個(gè)世界。

事實(shí)上,就連LeCun自己最著名的工作——On Convolutional Neural Networks ——就是一個(gè)很好的例證:對(duì)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)方式的內(nèi)置約束,從而大大提高了效率。很好地集成符號(hào)操作后,可能會(huì)帶來更大的收益。

2、人類嬰兒表現(xiàn)出一些符號(hào)操作的能力

在一系列經(jīng)常被引用的規(guī)則學(xué)習(xí)實(shí)驗(yàn)中,嬰兒們將抽象模式推廣到了他們所接受過訓(xùn)練的具體例子之外。隨后對(duì)人類嬰兒內(nèi)隱邏輯推理能力的研究更加證明了這一點(diǎn)。

另外,研究表明,比如蜜蜂可以以將太陽方位角函數(shù)推廣到它們從未見過的光照條件下。

圖片

在LeCun看來,學(xué)習(xí)符號(hào)等同于晚年獲得的東西,是因?yàn)槟贻p時(shí)候需要更精確、更專業(yè)的技能。

而令人費(fèi)解的是,在反對(duì)符號(hào)操作的先天性后,LeCun并沒有給出強(qiáng)有力的證據(jù),證明符號(hào)操作是后天習(xí)得的。

如果一只小山羊在出生后不久就可以爬下山坡,為什么新生的神經(jīng)網(wǎng)絡(luò)不能開箱即用地結(jié)合一點(diǎn)符號(hào)操作呢?

圖片

同時(shí),LeCun和Browning沒有具體說明,缺乏符號(hào)操作的內(nèi)在機(jī)制,如何解決語言理解和推理中眾所周知的特定問題?

他們只是給出一個(gè)微弱的歸納:由于深度學(xué)習(xí)已經(jīng)克服了從1到N的問題,我們應(yīng)該對(duì)它能克服N+1問題有信心。

人們應(yīng)該懷疑深度學(xué)習(xí)是否已經(jīng)達(dá)到了極限。鑒于最近在DALL-E 2、Gato和PaLM中看到的任務(wù)持續(xù)增量改進(jìn),不要將一時(shí)困難誤認(rèn)為是「墻」似乎是明智的。深度學(xué)習(xí)不可避免的失敗之前已經(jīng)被預(yù)言過,但押注它是不值得的。

樂觀是一方面,但要看清現(xiàn)實(shí)。

深度學(xué)習(xí)原則上面臨著一些特定的挑戰(zhàn),主要在組合性、系統(tǒng)性和語言理解方面,所有這些圍繞著一般化和「分布遷移」。

現(xiàn)在,每個(gè)人都認(rèn)識(shí)到分布遷移是當(dāng)前神經(jīng)網(wǎng)絡(luò)的致命弱點(diǎn)。當(dāng)然,深度學(xué)習(xí)已經(jīng)取得了進(jìn)展,但是在這些基礎(chǔ)問題上,進(jìn)展并不大。

在馬庫斯看來,符號(hào)操作可能具有先天性的情況與以往的情況大致相同:

1、當(dāng)前的系統(tǒng),在「代數(shù)思維」出現(xiàn)的20年后,即使面對(duì)海量的數(shù)據(jù)集和訓(xùn)練,仍然無法可靠地提取符號(hào)運(yùn)算(例如乘法)。

2、人類嬰兒的例子表明,在接受正規(guī)教育之前,他們有能力概括自然語言和推理的復(fù)雜方面。3、一點(diǎn)內(nèi)在的象征意義可以大大提高學(xué)習(xí)效率。AlphaFold 2的強(qiáng)大功能部分來自于精心構(gòu)建的分子生物學(xué)與生俱來的表征。

簡(jiǎn)言之,世界可能大致分為三個(gè)垃圾箱:

一是在工廠完全安裝了符號(hào)操作設(shè)備的系統(tǒng)。

二是具有先天的學(xué)習(xí)裝置系統(tǒng)缺乏符號(hào)操作,但是在正確的數(shù)據(jù)和訓(xùn)練環(huán)境下,有足夠的能力獲得它。

三是即使有足夠的訓(xùn)練,也無法獲得完整的符號(hào)操作機(jī)制的系統(tǒng)。

當(dāng)前的深度學(xué)習(xí)系統(tǒng)似乎屬于第三類:一開始沒有符號(hào)操作機(jī)制,并且在此過程中沒有可靠的符號(hào)操作機(jī)制。

當(dāng)前,了解符號(hào)操作的來源是我們的首要任務(wù)。即便是神經(jīng)網(wǎng)絡(luò)最狂熱的支持者現(xiàn)在也認(rèn)識(shí)到符號(hào)操作對(duì)于實(shí)現(xiàn)AI的重要性。

而這正是神經(jīng)符號(hào)學(xué)界一直關(guān)注的問題: :如何讓數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)和符號(hào)表示在一個(gè)單一的、更強(qiáng)大的智能中協(xié)調(diào)一致地工作?

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2019-12-27 16:27:27

深度學(xué)習(xí)編程人工智能

2022-09-28 08:23:56

AI人工智能工具

2023-09-01 09:42:37

模型學(xué)習(xí)

2022-11-03 14:04:18

人工智能模型

2023-02-14 14:54:09

模型AI

2015-02-26 11:05:17

2018-07-19 15:13:15

深度學(xué)習(xí)圖像

2022-08-19 14:40:31

機(jī)器人谷歌

2021-12-20 14:02:21

云計(jì)算公有云工具

2019-10-10 15:14:35

人工智能機(jī)器學(xué)習(xí)技術(shù)

2019-02-19 15:01:40

Python

2024-12-17 16:51:45

2022-06-20 09:00:00

深度學(xué)習(xí)人工智能研究

2021-05-07 15:27:30

人工智能機(jī)器學(xué)習(xí)技術(shù)

2018-08-03 09:42:01

人工智能深度學(xué)習(xí)人臉識(shí)別

2021-03-30 13:45:00

人工智能

2024-12-02 14:52:06

2025-01-21 13:21:45

2019-02-25 10:25:29

深度學(xué)習(xí)編程人工智能
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)