自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

LSTM之父再次約戰(zhàn)LeCun:你那5點(diǎn)「創(chuàng)新」都是抄我的!卻慘遭「已讀不回」

人工智能 新聞
看起來,繼Gary Marcus之后,LeCun的「一生之?dāng)场箍赡苡忠嗌弦粋€(gè)了!

最近,LSTM之父Jürgen Schmidhuber一言不合又跟LeCun干上了!

其實(shí)之前稍微熟悉這位暴脾氣大爺?shù)耐瑢W(xué)都知道,特立獨(dú)行的Jürgen Schmidhuber和機(jī)器學(xué)習(xí)社區(qū)的幾位大佬級(jí)人物之間都有過不愉快。

尤其是當(dāng)「那三個(gè)人」一起拿了個(gè)圖靈獎(jiǎng),而Schmidhuber卻沒有之后,這位老爺子就更氣了……

說到底Schmidhuber一直認(rèn)為,現(xiàn)在這幾個(gè)ML領(lǐng)軍人物,什么Bengio、Hinton、LeCun,包括「GAN」之父Goodfellow等人,他們的很多所謂「開創(chuàng)性成果」都是自己先提出來的,而這些人在論文中根本就沒提過他。

為此,Schmidhuber曾經(jīng)專門撰文把Bengio、Hinton、LeCun于2015年發(fā)在Nature上的綜述性文章「Deep Learning」一文拿出來批判過一番。

主要是說這篇文章里的成果,哪些東西是他先提的,哪些東西是別的前輩先提的,反正不是這仨作者先提的。

怎么又吵起來了?

回到這次事件起因,實(shí)際上是LeCun在9月份發(fā)的一條推文。

內(nèi)容是對(duì)David Chalmers教授提問的回答:「在過去十年中,AI最重要的智力突破(新想法)是什么?」

圖片

10月4日,Schmidhuber在他的博客上撰文怒斥:這5個(gè)「best idea」大部分都來自于我的實(shí)驗(yàn)室,而且提出的時(shí)間要遠(yuǎn)遠(yuǎn)早于「10年」這個(gè)時(shí)間節(jié)點(diǎn)。

文中Schmidhuber詳細(xì)列舉了六大證據(jù)來支撐自己的論述。

圖片

但估計(jì)是因?yàn)榭吹降娜颂?,Schmidhuber又在11月22日發(fā)推,重新把這個(gè)「冷飯」炒了一遍。

然而,相比于上一次還算激烈的爭辯,這回LeCun連理都沒理……

圖片

LSTM之父擺出「六大證據(jù)」

1. 通過神經(jīng)網(wǎng)絡(luò)(NN)自動(dòng)生成標(biāo)注的「自監(jiān)督學(xué)習(xí)」:至少可以追溯到我1990-91年的工作。

(I) 通過預(yù)測(cè)編碼在一個(gè)循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中進(jìn)行自監(jiān)督的目標(biāo)生成,來學(xué)習(xí)在多個(gè)時(shí)間尺度和抽象層次上壓縮數(shù)據(jù)序列。

在這里,一個(gè)「自動(dòng)機(jī)」RNN學(xué)會(huì)了「預(yù)測(cè)下一個(gè)輸入」的前置任務(wù),并將傳入數(shù)據(jù)流中的意外觀察作為目標(biāo)發(fā)送給「分塊機(jī)」RNN,后者學(xué)習(xí)更高層次的規(guī)律性,隨后通過適當(dāng)?shù)挠?xùn)練目標(biāo)將其獲得的預(yù)測(cè)知識(shí)提煉回自動(dòng)機(jī)中。

這大大促進(jìn)了以前無法解決的序列分類的下游深度學(xué)習(xí)任務(wù)。

圖片

(II) 通過GAN類型的內(nèi)在動(dòng)機(jī)進(jìn)行自監(jiān)督的標(biāo)注生成,其中一個(gè)世界模型NN學(xué)習(xí)預(yù)測(cè)對(duì)抗性的、標(biāo)注生成的、實(shí)驗(yàn)發(fā)明的控制器NN的行為后果。

圖片

此外,我于1990年發(fā)表的論文標(biāo)題中,就已經(jīng)出現(xiàn)了「自監(jiān)督」的說法。

但是吧,在更早期(1978年)的論文中,也用到了這個(gè)詞……

圖片

2. 「ResNets」:實(shí)際上就是我早期提出的Highway Nets。但LeCun卻認(rèn)為ResNets的智力「不深」,這讓我非常傷心。

在我提出Highway Nets之前,前饋網(wǎng)絡(luò)最多只有幾十層(20-30層),而Highway Nets是第一個(gè)真正的深度前饋神經(jīng)網(wǎng)絡(luò),有數(shù)百層。

圖片

在1990年代,我的LSTM給有監(jiān)督的遞歸NN帶來了基本無限的深度。在2000年代,LSTM啟發(fā)的Highway Nets給前饋NN帶來了深度。

由此帶來的是,LSTM已經(jīng)成為20世紀(jì)被引用最多的NN,而Highway Nets(ResNet)是21世紀(jì)被引用最多的NN。

可以說,它們代表了深度學(xué)習(xí)的精髓,而深度學(xué)習(xí)就是關(guān)于NN的深度。

3. 「門控->注意力->動(dòng)態(tài)連通圖」:至少可以追溯到我的Fast Weight Programmers和1991-93年的Key-Value Memory Networks(其中的「Key-Value」被稱為「FROM-TO」)。

1993年,我引入了現(xiàn)在使用的術(shù)語「注意力」。

圖片

不過值得注意的是,NN中的第一個(gè)乘法門可以追溯到1965年Ivakhnenko & Lapa的深度學(xué)習(xí)機(jī)。

4. 「Differentiable memory」:同樣可以追溯到我的Fast Weight Programmers或1991年的Key-Value Memory Networks。

像傳統(tǒng)計(jì)算機(jī)中那樣分離存儲(chǔ)和控制,但以端到端差分、自適應(yīng)、完全神經(jīng)的方式(而不是以混合方式)。

圖片

5. 「置換等變模塊,例如多頭自注意力->Transformer」:我在1991年發(fā)表了帶有線性化自注意的Transformer。相應(yīng)的「注意力」術(shù)語(internal spotlights of attention)可以追溯到1993年。

6. 「GAN是過去10年中最好的機(jī)器學(xué)習(xí)理念」?

你提到的這個(gè)GAN(2014年)的原理,實(shí)際上是我在1990年以人工智能好奇心的名義提出的。

圖片

上一次,還是在幾個(gè)月之前

其實(shí)這已經(jīng)不是Schmidhuber和LeCun之間今年第一次發(fā)生爭執(zhí)了。

在六七月間,兩人就關(guān)于LeCun發(fā)表的一篇「自主機(jī)器智能未來方向」的展望報(bào)告有來有回地吵了一番。

6月27日,Yann LeCun發(fā)表了自己積蓄幾年的論文「A Path Towards Autonomous Machine Intelligence」,并稱其為「指明AI未來發(fā)展方向之作」。

圖片

這篇論文系統(tǒng)講述了關(guān)于「機(jī)器如何能像動(dòng)物和人類一樣學(xué)習(xí)」的問題,長達(dá)60多頁。

LeCun表示,此文不僅是自己關(guān)于未來5-10年內(nèi)關(guān)于AI發(fā)展大方向的思考,也是自己未來幾年打算研究的內(nèi)容,并希望能夠啟發(fā)AI界的更多人來一起研究。

圖片

而Schmidhuber大概提前十幾天就得知這個(gè)消息,并拿到了這篇論文,當(dāng)即就寫了一篇文章反駁。

按照Schmidhuber自己在博客上文章的說法,當(dāng)時(shí)事情是這樣的:

2022年6月14日,一家科學(xué)媒體發(fā)布消息,說LeCun在6月27日要發(fā)布一篇報(bào)告,給我發(fā)了一份報(bào)告的草稿(當(dāng)時(shí)還在保密期),并要求我發(fā)表評(píng)論。

我寫了一篇評(píng)論,告訴他們這基本上是我們以前工作的翻版,而LeCun的文章中并沒有提到。

然而,我的意見被置若罔聞。

圖片

實(shí)際上,早在他這篇東西發(fā)表以前,我們就提出了LeCun在這篇文中所謂的「主要原創(chuàng)貢獻(xiàn)」的大部分內(nèi)容,主要有:

(1)  「認(rèn)知架構(gòu),其中所有模塊都是可分的,而且許多模塊是可訓(xùn)練的」(我們?cè)?990年提出)。

(2)  「預(yù)測(cè)世界模型的分層結(jié)構(gòu),在多個(gè)抽象層次和多個(gè)時(shí)間尺度上學(xué)習(xí)表征」 (我們?cè)?991年提出)。

(3)  「自我監(jiān)督的學(xué)習(xí)范式,產(chǎn)生同時(shí)具有信息性和可預(yù)測(cè)性的表征」(我們的模型自1997年起就用于強(qiáng)化學(xué)習(xí)和世界建模了)

(4) 「用于不確定性下的分層規(guī)劃」的預(yù)測(cè)模型,包括基于梯度的神經(jīng)子目標(biāo)生成器(1990年)、抽象概念空間的推理(1997年)、「主要通過觀察學(xué)習(xí)行動(dòng)」的神經(jīng)網(wǎng)絡(luò)(2015年),以及學(xué)習(xí)思考(2015年),都是我們先提出的。

7月14日,Yann LeCun回應(yīng),說討論要有建設(shè)性,他是這么說的:

我不想陷入一場(chǎng)關(guān)于「某個(gè)概念是誰發(fā)明的」這種無謂爭論中,也不想在你的回應(yīng)文章中列出的160個(gè)參考文獻(xiàn)中深究。我認(rèn)為更有建設(shè)性的做法是,指出你認(rèn)為可能包含我列出的4項(xiàng)貢獻(xiàn)中的觀點(diǎn)和方法的4篇出版物。

正如我在論文的開頭所說,有許多概念已經(jīng)存在了很長時(shí)間,你和我都不是這些概念的發(fā)明人:比如,可微調(diào)世界模型的概念,可以追溯到早期的優(yōu)化控制工作。

訓(xùn)練世界模型利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)世界模型的系統(tǒng)識(shí)別,這個(gè)想法可以追溯到80年代末,由Michael Jordan, Bernie Widrow, Robinson & Fallside, Kumpathi Narendra, Paul Werbos進(jìn)行的工作,都比你的工作早。

在我看來,這個(gè)稻草人式的回答似乎是LeCun在轉(zhuǎn)移話題,對(duì)他的所謂「主要原創(chuàng)貢獻(xiàn)」中貪他人之功的問題避而不談。

我在7月14日回復(fù):

關(guān)于你說的「你我都沒有發(fā)明的東西」:你的論文聲稱,用神經(jīng)網(wǎng)絡(luò)進(jìn)行系統(tǒng)識(shí)別可以追溯到20世紀(jì)90年代初。然而,在你的之前的回應(yīng)中,你似乎同意我的觀點(diǎn):這方面的第一篇論文出現(xiàn)在1980年代。

至于你的「主要原創(chuàng)貢獻(xiàn)」,實(shí)際上都用了我早年間的工作成果。

(一) 關(guān)于你提出的「認(rèn)知架構(gòu),其中所有模塊都是可分化的,且許多模塊都是可訓(xùn)練的」,「通過內(nèi)在動(dòng)機(jī)驅(qū)動(dòng)行為」:?

我在1990年就提出了用于在線學(xué)習(xí)和規(guī)劃的可分化架構(gòu),這是第一個(gè)具有 「內(nèi)在動(dòng)機(jī)」的控制器,用以改善世界模型,它既是生成性的,也是對(duì)抗性的;你文中引用的2014年的GAN是這個(gè)模型的一個(gè)衍生版本。

(二)關(guān)于你提出的 「在多個(gè)抽象層次和時(shí)間尺度上學(xué)習(xí)表征的預(yù)測(cè)性世界模型的分層結(jié)構(gòu)」:?

這是由我1991年的神經(jīng)歷史壓縮機(jī)實(shí)現(xiàn)的。它使用預(yù)測(cè)編碼,以自監(jiān)督的方式學(xué)習(xí)長序列數(shù)據(jù)的分層內(nèi)部表征,大大促進(jìn)了下游的學(xué)習(xí)。使用我1991年的神經(jīng)網(wǎng)絡(luò)提煉程序,這些表征可以被折疊成一個(gè)單一的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。

(三)關(guān)于你在控制方面的「自監(jiān)督學(xué)習(xí)范式,產(chǎn)生同時(shí)具有信息性和可預(yù)測(cè)性的表征」:?

這一點(diǎn)我在1997年提出構(gòu)建的系統(tǒng)中已經(jīng)提出。它不是預(yù)測(cè)未來輸入的所有細(xì)節(jié),而是可以提出任意的抽象問題,并在你所說的「表征空間」中給出可計(jì)算的答案。在這個(gè)系統(tǒng)中,兩個(gè)名為「左腦」和「右腦」的學(xué)習(xí)模型,選擇獎(jiǎng)勵(lì)最大化的對(duì)手進(jìn)行零和博弈,偶爾還會(huì)在這種計(jì)算實(shí)驗(yàn)的結(jié)果上打賭。

(四)關(guān)于你的可用于不確定情況下的分層規(guī)劃預(yù)測(cè)性可微分模型,你的文章里是這么寫的:?

「一個(gè)尚未回答的問題是,配置器如何學(xué)習(xí)將一個(gè)復(fù)雜的任務(wù)分解為一連串可以由智能體單獨(dú)完成的子目標(biāo)。我將把這個(gè)問題留給未來的調(diào)查。」

就別說什么未來了,實(shí)際上我在30多年前就發(fā)表過這樣的文章:

一個(gè)控制器神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)獲得額外的命令輸入,其形式為(開始,目標(biāo))。一個(gè)評(píng)估器神經(jīng)網(wǎng)絡(luò)負(fù)責(zé)學(xué)習(xí)預(yù)測(cè)從開始到目標(biāo)的預(yù)期成本。一個(gè)基于可微調(diào)循環(huán)神經(jīng)網(wǎng)絡(luò)的子目標(biāo)生成器看到了這個(gè)(開始,目標(biāo))的輸入,并使用評(píng)估器神經(jīng)網(wǎng)絡(luò),通過梯度下降學(xué)習(xí)一系列成本最小的中間子目標(biāo)。

(五)你還強(qiáng)調(diào)了 「主要通過觀察來學(xué)習(xí)行為」的神經(jīng)網(wǎng)絡(luò)。實(shí)際上我們很早就解決了這個(gè)問題,比2015年這篇文章,討論了部分可觀察環(huán)境中強(qiáng)化學(xué)習(xí)(RL)的一般問題。

圖片

世界模型M可能擅長預(yù)測(cè)一些事情,但對(duì)其他事情不確定??刂破鰿通過學(xué)習(xí)通過自我發(fā)明的問題序列(激活模式)來查詢并解釋答案(更多的激活模式)來最大化其目標(biāo)函數(shù)。

C可以從學(xué)習(xí)從M中提取任何類型的算法信息中獲益,比如用于分層規(guī)劃和推理,利用M中編碼的被動(dòng)觀察等等。

責(zé)任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2023-07-26 15:15:53

AI

2022-07-08 15:22:31

論文抄襲

2023-11-01 11:34:40

用戶畫像企業(yè)

2021-06-09 11:28:04

用戶畫像標(biāo)簽

2022-12-28 11:44:19

用戶畫像互聯(lián)網(wǎng)用戶信息

2024-12-11 14:30:00

AI模型

2020-12-14 13:39:19

QQ已讀功能聊天軟件

2014-11-03 14:59:56

2013-05-20 16:30:37

移動(dòng)應(yīng)用App推廣

2021-07-07 15:03:50

神經(jīng)網(wǎng)絡(luò)AI算法

2019-03-25 11:40:06

程序員全棧工程師書籍清單

2023-07-26 13:22:54

模式LSTMLlama 2

2017-12-20 15:00:55

Ryzen 5酷睿i5

2011-09-28 10:05:42

Java

2018-06-04 09:47:27

加班焦慮互聯(lián)網(wǎng)

2022-06-25 21:38:36

AI模型

2024-09-09 10:20:00

AI模型

2024-09-30 14:35:00

2011-01-07 10:18:28

RSSWeb

2021-03-26 11:29:00

5G6G網(wǎng)絡(luò)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)